0
| 本文作者: 我在思考中 | 2022-06-08 10:36 |
作者|李梅
編輯|陳彩嫻
前幾天剛跟馬斯克吵完架的Gary Marcus,又雙叒叕跟人吵起來了,這次的吵架對象是Yann LeCun。
一向喜歡給深度學習潑冷水的Marcus,在今天發(fā)帖談了談與LeCun的「舊賬」和「新仇」,并給了LeCun一個白眼:

事情是這樣的。
幾天前,有人在推特上發(fā)帖問: 在機器學習中,最優(yōu)雅美麗的idea是什么?感覺數(shù)學家和物理學家經(jīng)常談論美學,但我們卻很少,為什么?

于是網(wǎng)友們都來認真答題:多重權重更新算法(multiplicative weights update)、核技巧(kernel trick)、降維(dimension reduction)、一些凸優(yōu)化方法(convex optimization)、變分推理(variational inference)、熵和信息論等等。

大家還就機器學習研究的美學性討論了起來。有人認為,機器學習理論家其實也在談論優(yōu)雅這個東西,尤其是那些具有理論計算機背景或者傳統(tǒng)物理學背景的人。也有人言語犀利:之所以很少有人談論美學,是因為機器學習重在應用,而不是像純粹數(shù)學那樣「毫無價值」。
谷歌大腦的研究員Chris Olah也來轉貼評論說:

LeCun表示:梯度下降?這我熟!

LeCun在1989年發(fā)表的那篇論文,就是通過使用梯度下降的方法訓練了CNN進行圖像識別,梯度下降后來成為計算機視覺研究的基礎理論。
LeCun還回憶了2000年丹佛NIPS會議上的一次經(jīng)歷。當時一位非常杰出的ML研究人員在晚宴上問道:「我們在ML中學到的最重要的東西是什么?」LeCun回答說:「梯度下降」。當時那位研究人員臉上目瞪口呆的表情表明他對這個回答嗤之以鼻。
LeCun這個「仇」記得還挺久......
那么,「梯度下降」是最優(yōu)雅的ML算法嗎?有人贊成有人反對。


LeCun正忙著與網(wǎng)友進行友好交流,Marcus也來了。有討論深度學習的地方,怎能沒有我Marcus的身影?

LeCun一看:所以你的意思是要拋棄梯度下降了??
2.未來會有什么方案可能替代基于梯度的優(yōu)化?你是相信(a)無梯度優(yōu)化不好?,還是(b)優(yōu)化本身不好?

對此,Marcus表示很委屈:我的意思是DL需要「補充」,而不是「替換」!

Marcus還搬出發(fā)表于2018年的一篇文章“Deep Learning: A Critical Appraisal”作為證據(jù):

還有最近的一場keynote演講:

但是,LeCun并不買賬,他接著Marcus的話回復:


這可把Marcus惹急了:

那就來翻翻舊賬,針對Marcus在2018年寫的那篇文章,LeCun的確曾這樣評論(蝦仁豬心):

到這兒大家也能看出來,二人討論的對象和觀點是有錯位的。LeCun希望如果有新的方案,仍需要封裝在DL下,而Marcus的意思是新的方案需要圍繞著DL進行封裝,前者是關于規(guī)模的擴展,后者則是一種混合和補充。
大家怎么看?

雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。