人工智能近年突飛猛進,有賴深度學習演算法改革技術。被喻為電腦界諾貝爾獎的圖靈獎( Turing Award )今年就頒授給三位對深度學習有重大貢獻的科學家:滿地可大學教授 Yoshua Bengio 、多倫多大學教授 Geoffrey Hinton 和紐約大學教授 Yann LeCun 。三人均是深度學習之父,研究卷積神經網絡的關鍵人物,成為今日電腦視覺和自然語言處理的基礎。
Yoshua Bengio 將神經網絡結合序列機率模型,成為識別技術的基礎。 1990 年代, AT&T 和 NCR 以此技術識別手寫支票。後來將演算法伸延至語言識別,使用高維度字詞嵌入概念表達字詞意義,令機器翻譯取得重大突破。他又與 Google 大腦科學家 Ian Goodfellow 共同開發生成對抗網路( generative adversarial networks ),為發展電腦視覺的重要一步,例如電腦自動生成擬真的圖像。
Geoffrey Hinton 同時為 Google 副總裁,在 1986 年發表反向傳播( Backpropagation )演算法,解決過去無法處理的神經網絡問題,並成為現今神經網絡的基礎。在 2012 年,他與其學生一同改進卷積神經網路( CNN ),在 ImageNet 數據集競賽中,有效將錯誤識別率減一半。
Yann LeCun 亦是 Facebook 首席人工智能科學家。在 1980 年代開發卷積神經網絡,現在成為技術的基本原理,發展出電腦視覺、語音辨識、語音合成、圖像合成和自然語言。他與 Facebook 另一研究員 Leon Bottou 共同開發反向傳播演算法,其中構建模組原則( Building-Block Principle ),成為 TensorFlow 、 PyTorch 等深度學習框架的基礎。