自打2016年AlphaGo橫空出世,AI的這把火便愈燒愈烈。如今,張口不提AI似乎就已經與世界脫節了。雖然我們每個人都能說出它對應的準確含義——人工智能(Artificial Intelligence),但應如何用最簡單的方式理解AI?

其實,我們只需要抓住AI的三大驅動要素:算法、數據、運算能力,就可以組成AI的基本框架。

 

算法:

概括來講就是輸入運算輸出的邏輯。不論輸入什么、輸出什么,在計算機看來都是一堆數據。

研究人工智能的計算機程序,很多時候是在研究“聰明的算法”,能夠適應各種各樣的實際情況,讓計算機程序通過運算,從輸入的數據出發,正確而高效地得出應該輸出的結果。

  

在這一輪人工智能的熱潮中,機器學習的算法發揮了重要的作用。也就是說,為了完成更加復雜的任務,工程師必須讓計算機變得再聰明一些,能夠自動“學習”,從已有的歷史數據和經驗中自動分析,總結出規律。隨后,計算機就可以利用自己總結出來的規律,對新輸入的數據進行預測。這就是機器學習算法。

例如,把北京所有房子的價格、面積、學區、建造時間以及周圍的交通情況等信息輸入計算機,通過機器學習算法,計算機就能學到“大致判定北京一個房子的價格的規律”。

  

但是有些規律雖然自己能夠領悟,但卻無法翻譯成機器能理解的算法。例如,如何把一張照片變成一幅像是梵高畫過的油畫?如何讓語音合成模仿一個名人的聲音?如何讓一個六條腿的機器狗適應各種野外地形?如何讓一家電商的服務器猜出一個新用戶可能想要買什么商品?這個時候就要靠機器學習了。

數據:

既然要讓機器努力學習,就得有東西(“大量數據”)可學。隨著互聯網和物聯網的發展,網絡帶寬不斷增加,存儲硬件軟件成本不斷降低,全球人類產生的數據在爆發性增長,為人工智能的發展提供了源源不斷的營養。

  

互聯網時代,云計算、大數據技術不斷發展,4K 視頻、虛擬現實(VR)、視頻直播等應用催生大量流量需求,企業網、數據中心規模持續擴大,互聯網應用領域不斷擴大和升級,多因素驅動互聯網數據量呈現爆發式增長。

新摩爾定律主導下2015-2035年全球數據總量增長態勢

  

數據來源:IDC

運算能力:

大數據的營養有了,計算機程序還要經過大量運算,才能對這些營養進行“消化”、“吸收”,變成各種各樣的“模型”,才能夠模擬人類的智能。

這里面,需要引入幾個簡單的名詞:CPU(Central Processing Unit,中央處理器)、GPU(Graphics Processing Unit,圖形處理器)、FPGA(Field-Programmable Gate Array,現場可編程門陣列)、分布式運算。

從前,科學家使用傳統的CPU進行模型訓練,運算過程少則幾天,多則幾個星期,效率非常低。

應用了GPU、FPGA和分布式運算等新的運算加速技術以后,模型訓練的效率大大提高。有實際應用價值的人工智能程序一個接一個地涌現了出來。

  

    有了算法、數據、運算能力,人工智能才真正在我們工作、生活的各個場景開花結果。當然,更高級的AI形態是出現了具有知覺和自主意識的機器,他們可能像人一樣推理,也可能完全不遵循人類已知的所有邏輯,這種階段稱之為“強人工智能階段”。這一階段會如何來描繪?就留給我們的各位藝術家來想象吧。

(注:部分圖片來自Sheldon科學漫畫工作室)