0
| 本文作者: AI研習(xí)社-譯站 | 2018-06-26 14:51 |
雷鋒網(wǎng)按:雷鋒字幕組出品系列短視頻《 2 分鐘論文 》,帶大家用碎片時(shí)間閱覽前沿技術(shù),了解 AI 領(lǐng)域的最新研究成果。
翻譯 | 于澤平 字幕 | 凡江 整理 | 吳璇
本期論文:對(duì)抗樣本同時(shí)騙過(guò)人類和計(jì)算機(jī)視覺(jué)
Adversarial Examples that Fool both Human and Computer Vision
? ?每周一篇2分鐘論文視頻解讀
我們都知道,機(jī)器學(xué)習(xí)模型容易受到對(duì)抗樣本的影響。
比如,稍稍修改一點(diǎn)圖像,就會(huì)導(dǎo)致計(jì)算機(jī)視覺(jué)模型出現(xiàn)錯(cuò)誤,像是把校車(chē)認(rèn)成鴕鳥(niǎo)。
然而,人類是否容易出現(xiàn)類相似的錯(cuò)誤呢?

圖片加入干擾能讓貓看起來(lái)像狗
在這里,谷歌大腦的研究人員通過(guò)利用最近的技術(shù)創(chuàng)造了第一個(gè)欺騙人類的對(duì)抗樣本,這些技術(shù)將具有已知參數(shù)和體系結(jié)構(gòu)的計(jì)算機(jī)視覺(jué)模型的對(duì)抗樣本,轉(zhuǎn)換為其他具有未知參數(shù)和體系結(jié)構(gòu)的模型,并且通過(guò)修改模型更加有效地匹配初始處理的人類視覺(jué)系統(tǒng)。

不同擾動(dòng)方式對(duì)圖片進(jìn)行處理
研究發(fā)現(xiàn),在人類觀察時(shí)間有限的情況下,這些在計(jì)算機(jī)視覺(jué)模型之間進(jìn)行重度遷移的對(duì)抗樣本,已經(jīng)干擾了人類對(duì)圖像的分類。
論文原址 https://arxiv.org/abs/1802.08195
雷鋒字幕組正在招募中
掃描下方二維碼
備注“雷鋒字幕組+姓名”加入我們吧

雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。