成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
    此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
    人工智能學(xué)術(shù) 正文
    發(fā)私信給AI研習(xí)社
    發(fā)送

    0

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    本文作者: AI研習(xí)社 2020-06-12 17:29
    導(dǎo)語:內(nèi)附有獎(jiǎng)活動(dòng),歡迎參與!

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    看了2020進(jìn)度:▓▓▓▓▓▓????????? 43% ??,小助是日漸焦慮,感覺太多事情沒有做了~但事實(shí)上,小助又做了好多事情,下面就以“CVPR2020”會(huì)議為例,小助給大家細(xì)細(xì)總結(jié)一下。

    一:論文解讀公開課
    二:1466篇論文合集下載
    三:文字論文解讀
    四:有獎(jiǎng)分享

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    直播主題:實(shí)體機(jī)器人導(dǎo)航中可遷移的元技能的無監(jiān)督強(qiáng)化學(xué)習(xí)

    主講人:李俊成

    回放鏈接:http://www.mooc.ai/open/course/766

    內(nèi)容介紹:視覺導(dǎo)航任務(wù)要求智能體能夠智能地導(dǎo)航到指定的目標(biāo)。當(dāng)前基于深度強(qiáng)化學(xué)習(xí)的方法往往需要大量的訓(xùn)練數(shù)據(jù),而構(gòu)建豐富的3D仿真環(huán)境以及提供任務(wù)相關(guān)標(biāo)注是十分昂貴的。本文關(guān)注于在低資源的設(shè)定下完成視覺導(dǎo)航任務(wù)。本文通過提出無監(jiān)督強(qiáng)化學(xué)習(xí)方法來獲得具有遷移能力的子策略,使得模型能夠快速遷移到視覺導(dǎo)航任務(wù)。在AI2-THOR環(huán)境中,我們的方法實(shí)現(xiàn)了最佳的性能,進(jìn)一步的實(shí)驗(yàn)分析證明我們的方法學(xué)習(xí)到了一些具備遷移能力的元技能,從而幫助模型實(shí)現(xiàn)更好的泛化。


    直播主題:PolarMask: 一階段實(shí)例分割新思路

    主講人:謝恩澤

    回放鏈接:http://www.mooc.ai/open/course/789

    內(nèi)容介紹:實(shí)例分割是計(jì)算機(jī)視覺中一個(gè)比較基礎(chǔ)但是比較硬的問題,之前的方法高度依賴物體檢測(cè)的結(jié)果來做實(shí)例分割,如MaskR-CNN。實(shí)例分割如何擺脫檢測(cè)框的束縛仍然是一個(gè)沒有被很好解決的問題。

    本次分享中,將主要介紹我們?cè)谶@個(gè)問題的探索:PolarMask:Single Shot Instance Segmentation with Polar Representation。其中我們提出了一種一階段的實(shí)例分割方法,擺脫了檢測(cè)框的限制,其次我們的方法并不像傳統(tǒng)分割方法對(duì)圖中逐像素分類,而是通過輪廓建模的方式做實(shí)例分割。此外,我們還提出了兩種改進(jìn)手段來持續(xù)提高性能。總而言之,這篇文章提出了一種新型的一階段的,基于輪廓出發(fā)的實(shí)例分割方法。


    直播主題:SGAS:一種基于貪心思想的網(wǎng)絡(luò)結(jié)構(gòu)搜索算法,同時(shí)支持CNN和GCN網(wǎng)絡(luò)結(jié)構(gòu)搜索

    主講人:李國(guó)豪

    回放鏈接:http://mooc.yanxishe.com/open/course/800

    內(nèi)容介紹:在一般網(wǎng)絡(luò)結(jié)構(gòu)搜索的算法里常常發(fā)生搜索階段表現(xiàn)得很好的(超)網(wǎng)絡(luò)在最后進(jìn)行重新訓(xùn)練評(píng)估性能時(shí)表現(xiàn)得相當(dāng)較差的現(xiàn)象,這種情況的發(fā)生主要是搜索算法在搜索階段沒法很好地反應(yīng)模型最終評(píng)估階段的真正性能,本工作提出一種順序貪心決策的搜索算法減輕了模型性能排名不一致的問題,同時(shí)支持CNN和GCN的網(wǎng)絡(luò)結(jié)構(gòu)搜索,并應(yīng)用到了CNN圖像分類,GCN點(diǎn)云分類和GCN生物圖數(shù)據(jù)節(jié)點(diǎn)分類上。 


    直播主題:數(shù)據(jù)與模型缺陷:不完美場(chǎng)景下的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法

    主講人:Louis(騰訊)

    回放鏈接:http://mooc.yanxishe.com/open/course/797

    內(nèi)容介紹:深度學(xué)習(xí)的成功得益于大量的數(shù)據(jù)和很深的網(wǎng)絡(luò)模型。然而數(shù)據(jù)和模型往往不會(huì)特別理想,比如數(shù)據(jù)里存在著很多標(biāo)簽噪音或者考慮到模型的推理速度,神經(jīng)網(wǎng)絡(luò)的層數(shù)不能夠特別深。針對(duì)這些情況如何有效的訓(xùn)練神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)領(lǐng)域的熱點(diǎn)話題。特別是對(duì)于業(yè)務(wù)場(chǎng)景,數(shù)據(jù)住往存在很多缺陷,讓模型能夠自適應(yīng)的從缺陷數(shù)據(jù)里學(xué)習(xí)是業(yè)務(wù)成功的保障。

    本次講座將細(xì)致地講解數(shù)據(jù)和模型缺陷情況下神經(jīng)網(wǎng)絡(luò)的有效訓(xùn)練方法。相關(guān)技術(shù)已經(jīng)在騰訊的眾多業(yè)務(wù)場(chǎng)景上(行人重識(shí)別,內(nèi)容審核等)落地。 


    直播主題:長(zhǎng)尾分布下的特征學(xué)習(xí)方法介紹及最新進(jìn)展

    主講人:劉家倫

    回放鏈接:https://mooc.yanxishe.com/open/course/809

    內(nèi)容介紹:真實(shí)世界中的數(shù)據(jù)分布總是呈現(xiàn)出長(zhǎng)尾分布模式,即少量類別(頭部類)擁有大量數(shù)據(jù),而大部分的類別(尾部類)僅有少量的樣本,導(dǎo)致模型訓(xùn)練過程中出現(xiàn)嚴(yán)重的偏差,使得長(zhǎng)尾分布下的特征學(xué)習(xí)格外困難。

    本次分享將重點(diǎn)介紹 CVPR 2020上的一篇論文“Deep Representation Learning on Long-tailed Data: A Learnable Embedding Augmentation Perspective”。本文提出了“feature cloud”的概念,在模型訓(xùn)練過程中,為每一個(gè)尾部數(shù)據(jù)構(gòu)建“feature cloud”,就像電子云填充空曠的原子一樣,將一個(gè)真實(shí)的尾部特征表示為一簇特征,以此實(shí)現(xiàn)對(duì)尾部數(shù)據(jù)的data augmentation。方法簡(jiǎn)潔、高效,避免了像GAN這樣復(fù)雜的操作。另外,“feature cloud”在實(shí)際的大規(guī)模呈現(xiàn)長(zhǎng)尾分布的業(yè)務(wù)數(shù)據(jù)上取得了顯著的性能提升。

    直播主題:自監(jiān)督學(xué)習(xí)在視覺場(chǎng)景中的研究新進(jìn)展

    主講人:詹曉航、李順愷

    回放鏈接:https://mooc.yanxishe.com/open/course/837

    內(nèi)容介紹:自監(jiān)督學(xué)習(xí)是指從數(shù)據(jù)本身產(chǎn)生某種形式的標(biāo)簽并訓(xùn)練神經(jīng)網(wǎng)絡(luò),用來解決某些特定任務(wù)或者學(xué)習(xí)通用的圖像、視頻、語言的特征表達(dá)。在學(xué)術(shù)界,自監(jiān)督學(xué)習(xí)被證明可以解決光流預(yù)測(cè)、深度估計(jì)、場(chǎng)景遮擋等問題,不需要額外的人工標(biāo)簽。另外,基于自監(jiān)督學(xué)習(xí)的無監(jiān)督表征學(xué)習(xí)近年來也獲得了飛速發(fā)展,大有超越有監(jiān)督表征學(xué)習(xí)的趨勢(shì)。

    本次talk將結(jié)合兩篇CVPR 2020 Oral文章,講解自監(jiān)督學(xué)習(xí)方法在場(chǎng)景去遮擋、視覺里程計(jì)方面的最新成果。

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    本屆CVPR共收到6656篇投稿,有1470篇論文被接收,錄用率約22%,創(chuàng)下十年以來的最低記錄,被稱為“最難的一屆CVPR”。最近官方已經(jīng)發(fā)出了全部論文的下載鏈接,小助整理成了一個(gè)文件夾,方便大家一鍵下載。

    下載鏈接:https://www.yanxishe.com/resourceDetail/1738

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    或者掃碼收藏,下載


    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    CVPR2020論文收錄結(jié)果剛剛公布的時(shí)候,小助就和小伙伴一起聯(lián)系同學(xué)們做論文解讀的分享了,詳細(xì)的小助就不一一細(xì)說了,大家看鏈接。

    01. PolarMask:將實(shí)例分割統(tǒng)一到FCN,有望在工業(yè)界大規(guī)模應(yīng)用

    02. RandLA-Net:大場(chǎng)景三維點(diǎn)云語義分割新框架(已開源)

    03. 17篇入選CVPR 2020,騰訊優(yōu)圖 9 篇精選論文詳解

    04. 化繁為簡(jiǎn),弱監(jiān)督目標(biāo)定位領(lǐng)域的新SOTA - 偽監(jiān)督目標(biāo)定位方法

    05. 挑戰(zhàn) 11 種 GAN的圖像真?zhèn)危珼eepFake鑒別一點(diǎn)都不難

    06. 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

    07. PQ-NET:序列化的三維形狀生成網(wǎng)絡(luò)

    08. 視覺-語言導(dǎo)航新篇章:真實(shí)場(chǎng)景下的遠(yuǎn)程物體定位導(dǎo)航任務(wù)

    09. 室內(nèi)設(shè)計(jì)師失業(yè)?針對(duì)語言描述的自動(dòng)三維場(chǎng)景設(shè)計(jì)算法

    10. 深度視覺推理2.0:組合式目標(biāo)指代理解

    11. 用無監(jiān)督強(qiáng)化學(xué)習(xí)方法來獲得遷移能力

    12. 細(xì)粒度文本視頻跨模態(tài)檢索

    13. IR-Net: 信息保留的二值神經(jīng)網(wǎng)絡(luò)(已開源)

    14. 曠視研究院提出Circle Loss,革新深度特征學(xué)習(xí)范式

    15. ACGPN: 基于圖像的虛擬換裝新思路

    16. 雙邊分支網(wǎng)絡(luò)BBN:攻堅(jiān)長(zhǎng)尾分布的現(xiàn)實(shí)世界任務(wù)

    17. 基于點(diǎn)云的3D物體檢測(cè)新框架

    18. MetaFuse:用于人體姿態(tài)估計(jì)的預(yù)訓(xùn)練信息融合模型

    19. 針對(duì)VI-ReID的分層跨模態(tài)行人識(shí)別

    20. 8比特?cái)?shù)值也能訓(xùn)練模型?商湯提出訓(xùn)練加速新算法

    21. 挖坑等跳,F(xiàn)ineGym,一個(gè)面向細(xì)粒度動(dòng)作分析的層級(jí)化高質(zhì)量數(shù)據(jù)集

    22. 神奇的自監(jiān)督場(chǎng)景去遮擋

    23. 基于空間修剪的 NAS 算法
    24. 可擴(kuò)展且高效,谷歌提出目標(biāo)檢測(cè)“新標(biāo)桿”

    25. 商湯提出 Anchor-free 目標(biāo)檢測(cè)新網(wǎng)絡(luò)

    26. 對(duì)抗偽裝:如何讓AI懷疑人生!

    27. 一行代碼提升遷移性能

    28. 利用跨模態(tài)無監(jiān)督域自適應(yīng)進(jìn)行三維語義分割


    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    CVPR 2020將于6月14日正式線上開始,由于時(shí)差和網(wǎng)絡(luò)等各項(xiàng)原因,導(dǎo)致線上參會(huì)并沒有達(dá)到“分享工作”“討論工作”的目的,為了讓更多的工作讓更多的人參與討論,了解,我們現(xiàn)在誠(chéng)摯邀請(qǐng)各位 “CVPR2020”作者同學(xué)進(jìn)行分享,讓你的工作被更多所知。沒有論文的同學(xué)也可以參與哦~

    發(fā)布內(nèi)容小組:https://www.yanxishe.com/meeting/44

    獲獎(jiǎng)規(guī)則:

    1. 原作者推薦自己CVPR2020論文,即可獲得AI研習(xí)社定制保溫杯一個(gè)

    2. 原作者上傳CVPR 2020論文分享視頻(給CVPR官方視頻即可),即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件

    3. 原作者發(fā)布自己CVPR2020論文解讀,即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制背包一個(gè)

    4. 非原作者,推薦三篇CVPR2020相關(guān)論文,即可獲得研習(xí)社定制保溫杯一個(gè)

    5. 非原作者發(fā)布兩篇論文解讀,即可獲得AI研習(xí)社定制T恤一件(如果是轉(zhuǎn)載,請(qǐng)注明來源);若是原創(chuàng)解讀,可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件


    注:視頻請(qǐng)發(fā)到郵箱huangmeiling@yanxishe.com

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    活動(dòng)時(shí)間:2020年6月12日-6月22日

    有任何問題,請(qǐng)聯(lián)系“AI研習(xí)社頂會(huì)小助手”微信!

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    添加小助手,備注【CVPR】,即可進(jìn)入會(huì)議交流群

    雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

    雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

    一文帶你了解 CVPR 2020 上的工作,提前云參會(huì)!

    分享:
    相關(guān)文章

    編輯

    聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
    當(dāng)月熱門文章
    最新文章
    請(qǐng)?zhí)顚懮暾?qǐng)人資料
    姓名
    電話
    郵箱
    微信號(hào)
    作品鏈接
    個(gè)人簡(jiǎn)介
    為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
    您的郵箱還未驗(yàn)證,完成可獲20積分喲!
    請(qǐng)驗(yàn)證您的郵箱
    立即驗(yàn)證
    完善賬號(hào)信息
    您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說