立場新聞 Stand News

鳥瞰人工智能(二):驅動一切的電腦硬件

2018/8/6 — 11:15

今日要講的是遊戲宅人,推動人工智能發展的故事。如果人工智能的雛形早已在五十年代出現,為甚麼 Alexa 和 Siri 沒有同時面世呢?

原來,當時電腦運算能力低下,根本無法處理繁複的任務。例如阿波羅登月艙的導航電腦就比現代智能手機要慢大約 1,000 倍。美國《紐約時報》曾在 1958 年以頭版報導 Rosenblett 感知器,但跟進報道就付之闕如。無以為繼的原因,正是缺乏高速電腦。

這到底是怎樣一回事呢?運算能力低下,不但影響人工智能產品在應用場景下的表現,更嚴苛地限制了開發過程。絕大部份已投入商用的人工智能演算法,均需要經過密集「訓練」、摸清楚海量數據內含的規律後,才能發揮作用。以 Snapchat 的智能 filter 為例:它之所以能夠自動識別面孔,全靠標記了數十個面部特徵點 — 例如雙眼和鼻樑 — 的照片。用作訓練的照片數量以百萬起計,導致訓練過程耗時,電腦慢一點的話都無法應付。

廣告

Snapchat filter 例圖,取自 WikiHow

Snapchat filter 例圖,取自 WikiHow

廣告

俗語有云:有求必有供。突破運算能力限制的利器,其實早已安裝在你我的電腦 — 它就是圖像處理器 (GPU) 。正如前 Google 研究員 ,GPU 廠商如 NVIDIA 為應付日益華麗的 3D 遊戲,開發出一代接一代能夠平行運算畫圖的 GPU。鑑於電腦 3D 成像和 「深度學習」人工智能演算法均需要作大量矩陣運算,針對 3D 成像設計的 GPU 正好可以應用於深度學習。

2012 年,經過兩個星期的訓練,Alex Krizhevsky 等人開發的 AIexNet照片分類比賽中一舉成名, top-5 錯誤率* 只有 15% ,比上一年冠軍的 26.2% 明顯進步。這就展示了利用 GPU 訓練深度學習模型是可行的。時到今天,GPU + 深度學習成為了常見組合,而普通用家如你我亦可以透過 Google 、 Microsoft 和 Amazon 等雲端平台調用 GPU 作運算。

換句話說,電腦遊戲玩家無意中資助了 AI 的發展。果然世事難料!

但 GPU 遠非故事的終結。硬件廠商以及科技龍頭們都意圖通過開發人工智能專用晶片,以縮短演算法的開發週期或執行時間,甚至透過販賣晶片使用權撈一筆。GoogleMicrosoft、Facebook、Apple、阿里巴巴等大型網路公司早已涉獵晶片設計;Apple 的 iPhone X華為的 Mate10 亦早已安裝了專用晶片。另一方面,傳統晶片龍頭如 Intel 亦利用熟悉供應鏈的優勢分一杯羹;相關的初創公司如寒武紀,亦如雨後春筍般冒現市場。

專用晶片的適當使用,將會可觀地提升效率。例如紅極一時的手機改圖軟件 Prisma,就有望透過機載晶片進行本地運算,減少跟官方伺服器溝通而導致的延遲。另外, Uber 在北美的主要對手 Lyft 採用了 Google 推出的 Tensorflow Processing Unit (TPU) 後,開發過程的一環從幾天減少到數小時!詳見下面的 Youtube 影片,23:52。

何謂 AI 「專用」晶片呢?跟一般的電腦中央處理器 (CPU) 不同,專用晶片只能執行指定演算法,而針對性的設計更令它在單一用途的性能遠勝 CPU。可是,功能狹窄也令專用晶片的發展受制於演算法:如果某演算法不再被採用,那麼整套的晶片也會隨著落伍。

正如 Google AI 研究領導人 Jeff Dean 在上面的影片提到,接下來將會是晶片發展多姿多彩、優勝劣汰的五年。專用晶片的成功,將有助加速人工智能投入到更廣泛的應用場景。

總結:

  1. 現時絕大部份的人工智能應用,需要經過海量數據的訓練才能發揮作用。故此,人工智能對電腦運算能力要求嚴格。
  2. 電腦圖像處理器舒緩了上述問題,成就了深度學習等演算法的發展。與此同時,各大商家試圖開發特製晶片,產品開發和執行時性能有望更上一層樓。

註:
*比賽要求計算照片分屬為 1,000 個類別的機率;每張照片因而對應 1,000 個數字。假定有十張照片;如果其中三張的正確分類跟各自最大的五個機率沒有對上,top-5 錯誤率為 30%。

作者 Facebook 專頁

發表意見