0
| 本文作者: AI研習(xí)社 | 2020-01-16 14:22 |
為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI 研習(xí)社重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——
提高有噪聲情況下的語(yǔ)音識(shí)別準(zhǔn)確率——而且用常見(jiàn)工具就可以
基于對(duì)偶圖注意力網(wǎng)絡(luò)多方面社交影響的推薦系統(tǒng)
想研究蚊子、阻止瘧疾,你需要一個(gè)蚊子叫聲數(shù)據(jù)集
用于類遞增目標(biāo)檢測(cè)的交叉數(shù)據(jù)集訓(xùn)練
卷積均值:一種簡(jiǎn)單的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)
論文名稱:Improved Robust ASR for Social Robots in Public Spaces
作者:Charles Jankowski /Vishwas Mruthyunjaya /Ruixi Lin
發(fā)表時(shí)間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8973?from=leiphonecolumn_paperreview0116
推薦原因:帶有社交功能的、仿人類外型的機(jī)器人如今越來(lái)越多出現(xiàn)在酒店、銀行、展廳等場(chǎng)合,大家也很喜歡和它們聊天。不過(guò),這種公共、開放場(chǎng)景中的自動(dòng)語(yǔ)音識(shí)別(ASR)仍然是有一定難度的,尤其是環(huán)境噪音。現(xiàn)有的ASR模型通常在噪音較小、說(shuō)話人聲音信噪比較高的情況下有不錯(cuò)的表現(xiàn),但一旦噪音增大,模型的表現(xiàn)就會(huì)有顯著下降。
這篇論文重點(diǎn)針對(duì)的就是有噪聲的環(huán)境下的ASR。作者們?cè)贏iShell-1中文語(yǔ)音數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),不僅在噪聲較高的情況下獲得了新的最好成績(jī),同時(shí)也表明了用很容易找到的開源的工具包+幾百個(gè)小時(shí)的訓(xùn)練數(shù)據(jù)就可以獲得相對(duì)高的準(zhǔn)確率。這個(gè)結(jié)果對(duì)其他的開發(fā)者、初學(xué)者也很有借鑒意義。

論文名稱:Dual Graph Attention Networks for Deep Latent Representation of Multifaceted Social Effects in Recommender Systems
作者:Wu Qitian /Zhang Hengrui /Gao Xiaofeng /He Peng /Weng Paul /Gao Han /Chen Guihai
發(fā)表時(shí)間:2019/3/25
論文鏈接:https://paper.yanxishe.com/review/8984?from=leiphonecolumn_paperreview0116
推薦原因:圖神經(jīng)網(wǎng)絡(luò)已經(jīng)取得了巨大的成功現(xiàn)在很多領(lǐng)域得到了應(yīng)用。作為與圖最相關(guān)的推薦,很多工作也嘗試引入GNN來(lái)更好的學(xué)習(xí)節(jié)點(diǎn)表示。本文算是比較早的引入GNN來(lái)進(jìn)行推薦的論文,發(fā)表在WWW2019上。作者探索了社交影響中在user-item二部圖上影響,總共定義了4種社交影響,在通過(guò)GNN學(xué)習(xí)到表示之后,作者利用了強(qiáng)化學(xué)習(xí)技術(shù)來(lái)實(shí)現(xiàn)動(dòng)態(tài)融合。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文算法的有效性。


論文名稱:HumBug Zooniverse: a crowd-sourced acoustic mosquito dataset
作者:Ivan Kiskin /Adam D. Cobb /Lawrence Wang /Stephen Roberts
發(fā)表時(shí)間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8954?from=leiphonecolumn_paperreview0116
推薦原因:深度學(xué)習(xí)的應(yīng)用越來(lái)越廣,尤其是研究生物的人開始用上深度學(xué)習(xí)之后,我們就開始看到一些好笑的、出人意料的研究和數(shù)據(jù)集。
前不久四川瀕危野生動(dòng)物保護(hù)國(guó)家重點(diǎn)實(shí)驗(yàn)室 - 成都大熊貓繁育研究基地剛剛發(fā)布了一個(gè)大熊貓聲音的數(shù)據(jù)集,今天我們又看到了一個(gè)蚊子聲音的數(shù)據(jù)集。沒(méi)錯(cuò),就是那個(gè)會(huì)叮人、會(huì)傳播疾病的蚊子的數(shù)據(jù)集。
這些來(lái)自牛津大學(xué)的研究人員的收集了超過(guò)19萬(wàn)段2秒長(zhǎng)的蚊子錄音并進(jìn)行了標(biāo)注,其中大約有10%的數(shù)據(jù)樣本對(duì)應(yīng)了蚊子的某種行為。他們希望這個(gè)數(shù)據(jù)集可以幫助更好地研究蚊子的分布和行為,他們也在論文中提供了用CNN進(jìn)行分類的樣例。
這個(gè)論文還是 2019 NeurIPS ML4D workshop 的最佳論文獎(jiǎng)得主。ML4D workshop 的主旨就是利用機(jī)器學(xué)習(xí)技術(shù)幫助發(fā)展中國(guó)家,這篇論文研究的蚊子正是發(fā)展中國(guó)家中尚未完全得到控制的瘧疾的重要傳染途徑,和workshop的目標(biāo)非常吻合,也有開拓和啟發(fā)意義,得到這個(gè)最佳論文獎(jiǎng)可謂恰如其分。


論文名稱:Cross-dataset Training for Class Increasing Object Detection
作者:Yao Yongqiang /Wang Yan /Guo Yu /Lin Jiaojiao /Qin Hongwei /Yan Junjie
發(fā)表時(shí)間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8985?from=leiphonecolumn_paperreview0116
推薦原因:這篇論文考慮的是跨數(shù)據(jù)集訓(xùn)練的目標(biāo)分類任務(wù)。
給定不同的數(shù)據(jù)集,跨數(shù)據(jù)集訓(xùn)練的目標(biāo)是檢測(cè)不同類別的并集,而不需要為所有數(shù)據(jù)集標(biāo)記所有類別。通過(guò)這種方式,可以利用現(xiàn)有的數(shù)據(jù)集來(lái)訓(xùn)練模型,然后應(yīng)用于合并之后的數(shù)據(jù)集,并且避免了在新數(shù)據(jù)集上進(jìn)行標(biāo)記。這篇論文在PASCAL VOC、 COCO、 WIDER FACE和WIDER Pedestrian這些數(shù)據(jù)集上實(shí)驗(yàn)了單數(shù)據(jù)集和跨數(shù)據(jù)集這兩種訓(xùn)練模式。實(shí)驗(yàn)結(jié)果表明與獨(dú)立訓(xùn)練相比,這篇論文提出的跨數(shù)據(jù)集訓(xùn)練框架可以同時(shí)在這些數(shù)據(jù)集上實(shí)現(xiàn)類似的性能表現(xiàn)。



論文名稱:Convolutional Mean: A Simple Convolutional Neural Network for Illuminant Estimation
作者:Gong Han
發(fā)表時(shí)間:2020/1/14
論文鏈接:https://paper.yanxishe.com/review/8986?from=leiphonecolumn_paperreview0116
推薦原因:這篇論文提出了一種名為卷積均值的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)。
這種卷積均值方法只要求一個(gè)包含大約1100參數(shù)量的小網(wǎng)絡(luò)模型,以及一個(gè)48x32的縮略輸入圖。該方法在沒(méi)有優(yōu)化的Python實(shí)現(xiàn)中處理速度是1毫秒1張圖片,并且在保持相同準(zhǔn)確率的前提下,遠(yuǎn)遠(yuǎn)快于當(dāng)前的其他方案。在兩個(gè)公共數(shù)據(jù)集上的實(shí)驗(yàn)也表明了這種方法在多個(gè)度量上的準(zhǔn)確性可與當(dāng)前的最優(yōu)算法相媲美。

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微,備注“論文兼職作者”

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等
今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等
今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等
今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。