0
新年到來,也不要忘記和雷鋒網一起溫故而知新啊。
在剛剛落下尾聲的 2016 年,許許多多的人工智能大神們站在臺上分享他們的所見所感,雷鋒網整理了十位人工智能領域的大牛們所做的最新演講,一起與雷鋒網來回顧這些充滿智慧閃光的科研成果吧。

Yann LeCun 堪比學術界的網紅,今年頻頻露面于公眾面前發表演講,還錄制了不少教學視頻,圈粉無數。如果 Yann LeCun 想坐 2016 最活躍學界大神的寶座,雷鋒網覺得沒有人敢和他搶。
LeCun 在卡內基梅隆大學機器人研究所進行了一場關于 AI 技術核心問題與發展前景的演講。雷鋒網了解,他在演講中提到了三點干貨:
1. 無監督學習代表了 AI 技術的未來。
2. 當前 AI 應用的熱點集中在卷積神經網絡。
3. 用模擬器提高無監督學習的效率是大勢所趨。
但不久后,在 NIPS 大會的演講上,LeCun 又將預測學習代替無監督學習一詞,認為預測學習不僅能在無監督情況下學習,還能學習世界的預測模型。而就在最近,他又把預測學習的落腳點放在了 GANs,稱它為「20 年來機器學習領域最酷的想法」。
雷鋒網對他的演講做了不少覆蓋,比如演講 PPT 實錄;演講視頻整理;教授人人都能懂的深度學習基本原理;甚至還有 Quora 問答集錦,親授如何(像他一樣)從小白到大牛,自覺深度學習技術。
啥也不說了,關注 AI 科技評論快上車吧!
作為與 Yann LeCun、 Geoffrey Hinton 齊名的「深度學習三巨頭」,Yoshua Bengio 同樣是學界不可忽視的一名執牛耳者,他自 1993 年在蒙特利爾大學任教。谷歌于今年 11 月宣布建立蒙特利爾算法學習人工智能實驗室(MILA),共計投資 340 萬美元,資助蒙特利爾大學和麥吉爾大學旗下七名重量級教授及超過 150 名研究者的日常實驗。而自然,Yoshua Bengio 也在其列。他領導下的深度學習實驗室可謂是人工智能的研究前沿陣地,也是世界上最大的研究中心之一。http://m.qcxyk.com/news/201611/u6HcoL3VhOxAbdjx.html
在今年 5 月的 Twitter Cortex 上,Bengio 應邀做了題為「自然語言詞義下的深度學習」的演講。在演講中,Bengio 提及了從機器學習到人工智能的三個關鍵要素,主要包括:
1. 非常非常多的數據;
2. 極靈活的模型
3. 強大的先驗知識,能打破維度魔咒。
此外,他還引申到了深度學習中的聚焦機制(Attention),首先它需要考慮一個輸入(或中間的)序列或圖像;但考慮到高層次指稱,通過設置權重或每個輸入位置概率,(如 MLP 所產生的),能夠應用于每個位置。而這最主要的一個應用就在于機器翻譯。在 2014 年,神經機器翻譯獲得了初步突破,并在端到端機器翻譯取得了顯著成果。雷鋒網此前也做過報道,谷歌大腦團隊執掌下的 Google Translate 目前已經完全應用了機器學習進行翻譯學習。
Bengio 認為,聚焦機制能夠讓深度學習取得巨大進步,并讓學習者模型更好地做選擇。
既然說到了 Bengio,雷鋒網怎么能不提他的得意門生、「GANs」之父 Ian Goodfellow 呢?他同樣在 NIPS 2016 上發表演講,分享了他對生成式對抗網絡的研究成果。
生成對抗網絡是一種生成模型(Generative Model),其背后最基本的思想就是從訓練庫里獲取很多的訓練樣本(Training Examples),從而學習這些訓練案例生成的概率分布。
而 GANs 所做的「對抗」,就是讓生成器網絡與判別器網絡玩一個游戲,生成器網絡不斷通過輸入的隨機噪聲轉化為假數據;而判別器網絡就需要判斷數據的真偽。
「與傳統神經網絡訓練不一樣的且有趣的地方,就是我們訓練生成器的方法不同。生成器一心想要「騙過」判別器。使用博弈理論分析技術,我們可以證明這里面存在一種均衡。」
不過訓練 GANs 的一個難點,就在于會出現「模型崩潰」(Mode Collapse):生成的所有樣本都在一個點上(樣本相同),而主要的解決方式是開發能找到均衡狀態的新算法,而非令誤差最小化的成本函數。
Goodfellow 此前為 Google Brain 高級研究員,現在為 OpenAI 的科學家。他在學術界也同樣非常活躍,不僅發布了 38 分鐘視頻,(手把手)教授如何完善生成對抗網絡,還在最后與網友互動,詳細解答了求知者的各種疑惑。

如果說谷歌是人工智能領域的弄潮兒,Jeff Dean 自然就是沙灘上最為璀璨的珍珠。Jeff Dean 在領導谷歌大腦(2011 年成立,雷鋒網注)的這段時間內,研究小組已經創造了超過 1000 個深度學習項目,并將其應用在谷歌現有的產品當中:如 YouTube,谷歌翻譯和谷歌相冊等。研究人員通過深度學習將大量數據輸入到神經網絡當中,學習比人類識別速度更快的模式。
在今年 3 月 AlphaGo 與李世石人機大戰時,Jeff Dean 就做了《大規模深度學習最新進展》的主題演講,而在今年 9 月的 Scaled Maching Learning 會議也做了內容類似的《使用 TensorFlow 的大規模深度學習》。
Jeff Dean 認為,神經網絡能從數據中學習真正復雜的函數。從一端輸入內容轉換成另一端的輸出內容。他也提及機器學習領域的發展速度非常之快,因為一篇論文發布之后,全球對人工智能有研究的機構都會下載它,并對內容進行解析和論證,加上電子論文的通達性,比起計算機學其它領域的研究進展會快得多。
對于谷歌,Jeff Dean 表示深度學習在語音識別、Image 挑戰賽、谷歌翻譯、照片搜索、街景影像,甚至是搜索排名上都取得了巨大突破。關于他的更多訪談資料,可以參考《谷歌戰神談增強學習和無監督學習》。
今年 AI 界并不平靜,而李飛飛加盟谷歌,著手成立新的機器學習實驗室,則成了里頭「萬綠叢中一點紅」的存在,而雷鋒網一直對這位華人女性科學家保持高度關注。
李飛飛在今年參加了 ICPR 2016,并應邀發表了名為《計算機視覺智能的探索》的演講。她在演講中提到,自然經歷了五億多年的變革才構造了人類強大的視覺系統,而人工智能的視覺探索之旅也只進行了短短五十年。李飛飛介紹了她的實驗室中正在開發的,基于大數據及深度學習的計算機圖像視頻研究體系。
作為全球計算機視覺領域的知名專家,李飛飛的主要貢獻在于參與建立了兩個被 AI 研究者廣泛使用來教機器分類物體的數據庫:Caltech 101 和 ImageNet,而后者,目前已經成為了全球最大的圖像識別數據庫。
當然,這個演講的主要內容還是在介紹 ImageNet 的主要進展,而如果你對她最為出名的 TED 演講還不夠熟悉,歡迎一睹雷鋒網此前撰寫的李飛飛個人介紹。
百度人工智能實驗室的吳恩達(AndrewNg)也算得上是非常活躍的人工智能學者,他同樣在今年的 NIPS 2016 上進行了演講,名為《如何用深度學習建構人工智能系統》(Nuts and Bolts of Building Applications using Deep Learning)。
吳恩達在演講中指出深度學習非常火的原因在于,神經網絡能夠擴大無限大的規模,并能夠依靠這一點引領深度學習。在百度的人工智能實驗室中,他嚴格將團隊分為了算法與架構兩大體系,認為沒有人是兩者皆擅長的,因此這一點可以為其它深度學習創業公司的團隊提供參考。
而在接下來的展望中,吳恩達認為下一個深度學習的大潮在于端對端的學習。需要足夠多的數據量,才能實現更加純粹的端到端學習,也就是直接通過深度學習將語音對標到最終想要的文本,并通過深度學習自身的體征提取來獲得結果。關于吳恩達的 NIPS 2016 最新演講,還請回顧一下雷鋒網的相關文章。

此 Michael Jordan 非彼喬丹,他是加州大學伯克利分校(University of California, Berkeley)電子工程系、計算機科學系以及統計系的杰出教授。在他麾下學習過的不少學生都已經成為了鼎鼎有名的機器學習大牛,比如 Yoshua Bengio 和 Andrew Ng 都是他的得意門生。
他于今年五月在伯克利分校做了一個關于計算思維、推理思維及數據科學的演講。在會上他提到,數據科學需要計算思維與推理思維的完全融合,并指出了大數據環境下驗證模式、解釋模式與計算過程中可能出現的問題。
「在處理數據科學問題上出現了許多概念與數學上的挑戰,而面臨這些挑戰,我們需要在計算思維與推理思維上建立良好的聯系。」

而三巨頭的另一名大牛 Geoffrey Hinton 相對而言則比較低調。雷鋒網從他的主頁上了解到,他在過去一年并沒有參加什么大型的公開會議,也鮮有關于他的報道。但是,他可稱得上是深度學習的鼻祖,正是他將深度學習從低谷中拯救出來,并成為今天我們喜聞樂見的核心技術。在過去的 20 到 30 年里,無疑他是深度學習最為積極的先行者。目前, 他為 LeCun, Bengio 和 Aaron Courvile 合著的深度學習入門大作《Deep Learning》寫了推薦語,該書于 2016 年年底出版發貨。
如果你對深度學習一無所知,又覺得看書太過辛苦,雷鋒網此前編譯過另一份 Hinton 講述的《Deep Learning》演講PPT,或許是你入門的好選擇。歡迎點此查看學習。
不知道是不是長江后浪推前浪,比起活躍的青壯年一代,LSTM 之父 Jürgen Schmidhuber 在今年也露面較少,在今年夏天的 WCCI 上,他發表了言簡意賅的《Deep Learning:since 1991》的演講,主要回顧了深度監督學習/無監督學習/強化學習的一系列進展,并討論實際上可能伴隨的具體應用。「沒有任何原因說明,機器不能擁有好奇心和創造力」
「所有的智能——不論是人類的還是人工的——都基于一個主題,那就是解決問題。長期以來,我們一直在致力于構建一個解決通用問題的機制,不論這些問題是困難還是簡單。這個問題解決機制能夠通過先前學習的技能解決現有的問題,通常,機器會將新的技能增加到計算指令系統中,并能夠解決越來越通用的問題。當然,如果到達我們所預想的成功,一切將會發生翻天覆地的改變,因為每個計算問題或每個專業性研究都將受到影響。」
關于他更為詳細的人工智能訪談,可以參看雷鋒網此前的報道。
美國通用人工智能會議主席 Ben Geortzel 在年初的未來論壇上做了主題演講,期間他提出了一句流傳甚廣的話:人工智能將會變得越來越通用。那么,我們又該如何理解這句話?一起和雷鋒網來看看吧。
在 Ben Goertzel 的理解中,AI 在很多層面都與人類是不一樣的,特別是在基礎架構層面。而他發現,現在很多的人工智能只能解決一些非常狹窄的功能,比如無人駕駛只是針對于汽車領域,而換成無人摩托,就需要重新進行編程。他認為,現在人們需要向利用 AGI 所導向的工具,實現通用工人智能。
「AI 項目的范圍是比較窄的,但是將來會變得越來越通用。它們不僅僅越來越智能,同時它們的范圍和目的也更加通用,我認為這是一個關鍵趨勢。
通過 AGI 通用人工智能可以實現很多愿景,一個愿景是思維云,我們可以把世界各地的思維和大腦連在云上,我們的應用,不管手機應用還是機器人,還是科學數據分析的機構,我們可以從互聯網下載他們的大腦和思維,他們可以幫助你進行思考,不管他們在哪個領域都可以做,在云上有覆蓋各個領域的應用。」
Ben Geortzel 目前正專注于開源 AI 項目 OpenCog 的研發,并嘗試推動大學與獨立研究院的結合,這也是雷鋒網一直致力在做的。
十個演講的盤點也許只是匆匆一瞥,還有不少大會上的優秀演講因為篇幅限制,雷鋒網只能忍痛割愛。但不論如何,雷鋒網將與你在新的一年內繼續走在探索人工智能的道路上,關注智能與未來的我們也會期待見證新一年的精彩。
【兼職召集令!】
如果你對未來充滿憧憬,喜歡探索改變世界的科技進展,look no further!
我們需要這樣的你:
精通英語,對技術與產品感興趣,關注人工智能學術動態的蘿莉&萌妹子&技術宅;
文字不求妙筆生花,但希望通俗易懂;
在這里,你會收獲:
一群來自天南地北、志同道合的小伙伴;
前沿學術科技動態,每天為自己充充電;
更高的生活品質,翻翻文章就能掙到零花錢;
有意向的小伙伴們把個人介紹/簡歷發至 guoyixin@leiphone.com,如有作品,歡迎一并附上。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。