成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給隔壁王大喵
    發送

    0

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    本文作者: 隔壁王大喵 2017-08-22 07:49
    導語:兩屆CVPR最佳論文得主何愷明在Facebook人工智能實驗室的新作

    雷鋒網 AI 科技評論按:CV大牛何愷明在Facebook人工智能實驗室的新作,一起來圍觀!

    何愷明博士,2007年清華大學畢業之后開始在微軟亞洲研究院(MSRA)實習,2011年香港中文大學博士畢業后正式加入MSRA,目前在Facebook人工智能實驗室(FAIR)實驗室擔任研究科學家。何愷明博士最讓人印象深刻的是曾兩次以第一作者身份摘得CVPR最佳論文獎(2009和2016),其中2016年CVPR最佳論文為圖像識別中的深度殘差學習(Deep Residual Learning for Image Recognition),就是舉世聞名的152層深度殘差網絡 ResNet-152。

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    這次,何愷明博士的新論文名為「Focal Loss for Dense Object Detection」,利用“焦距損失”的方法,應對樣本不均衡的問題,從而大幅度提升了物體檢測效果,以下是雷鋒網 AI 科技評論對這篇論文的介紹。

    論文內容簡介

    物體檢測(Object detection)是計算機視覺研究領域的一項重要任務,而迄今為止表現最好的物體檢測方法是由于R-CNN而流行開來的兩階段法,這種方法現在第一階段首先生成一個包含所有物體、過濾了大多數沒有物體的背景區域的稀疏侯選集合,然后在第二階段重新判別所有的候選點,把它們明確地分為前景類別以及背景。R-CNN的運用就是在兩階段法中用一個卷積網絡作為第二階段的分類器,取得了精度的大幅度進步。在多年的改進中,R-CNN也經歷了許多升級,速度和準確率都有繼續的提升。

    另一種物體檢測方法是單階段法,以近期的 SSD 和 YOLO 為代表。它們的好處是速度有很大提升,代價是犧牲了精度;SSD的識別準確率要低10%~20%,YOLO 則更加注重速度,準確率的犧牲更大。如下圖中字母的位置就是不同的網絡在準確率和推理時間取得的平衡。近期的研究也顯示出,如果想要加速兩階段法的網絡,降低輸入圖像的分辨率即可達到很好的效果,但是想要提升單階段方法的準確率的話,很高的計算開銷也收效甚微,表現改善陷入了困境。

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    而圖中的兩條線則是這篇論文中提出的模型的表現。作者們的目的是讓單階段方法也有很高的準確率。那么他們的最終結果 RetinaNet,分別在同樣的推理時間下,比所有現有模型都取得了更高的準確率。而且根據不同的網絡大小也可以在速度和準確率之間取得不同的平衡。效果可謂是驚人地好。

    據雷鋒網 AI 科技評論了解,研究員們在探究單階段網絡準確率表現不佳的狀況時,發現在密集檢測器(Dense detectors)訓練期間遇到了極端的前景-背景類別不平衡(Extreme foreground-background class imbalance)是一個重要原因。比如SSD中,檢測器需要在每張圖像中評價一萬個到十萬個候選位置,然而其中只有很少的點真的含有目標物體。這就導致了訓練效率低下和簡單的負面樣本引發整個模型表現下降的問題。

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    所以,研究員們提出了通過重塑標準交叉熵損失來解決這一類不平衡問題。他們的想法是降低簡單的負面樣本所占的權重,所以他們提出的焦點損失(Focal Loss)方法將訓練集中在一系列難點上,并且防止了大量的簡單負面例子在訓練過程中阻礙探測器學習。如上圖,參數 γ 的值選擇得越大,模型就會對已經得到了很好的分類的樣本忽略得越多,越專注于難的樣本的學習。這樣的機制就讓他們的檢測器在密集對象檢測這樣的真實正面樣本比例很低的情況下取得了很高的準確率。

    由于論文作者中有 ResNet 提出者何愷明博士的名字,我們也不意外地發現,ResNet 的成果在 RetinaNet 中得到了運用。ResNet 的部分高水平地提取圖像中的特征,而在附加網絡中實現了樣本不平衡的調節。

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    圖一,上圖展示了單階段網絡RetinaNet的架構。該架構在前饋ResNet架構(a)頂部使用特征金字塔網絡(Feature Pyramid Network, FPN)骨架,以生成更加豐富和多尺度的卷積特征金字塔(b)。RetinaNet在后面還附加了兩個子網,一個是用于分類的錨盒(Anchor boxes)(c),另一個則是用于實現錨盒到Ground-truth物體盒之間的回歸(d)。該神經網絡被有意設計成這種比較簡單的形式,這樣使得這項工作的精力能夠集中于焦點損失(Focal loss)函數上。該焦點損失函數消除了單階段檢測器與最新的兩階段檢測器之間的準確率差距,并且運行速度還更加快。

    根據 RetinaNet 中使用的 ResNet 網絡大小不同,形成了 RetinaNet-101 和  RetinaNet-50,兩個模型在大小為500、600、700、800的圖像上的表現就繪制出了文章開頭這張性能/時間對比圖中的兩條線。而這兩條線也就一起描繪出了現有方法的表現上限。

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    對于應對樣本不平衡問題的關鍵方法“焦距損失”,作者們在論文中還提出了兩種不同的表現形式,都起到了很好的效果。更多模型細節可以查看原論文,論文地址:https://arxiv.org/abs/1708.02002 

    雷鋒網 AI 科技評論編譯。

    雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

    兩屆CVPR最佳論文得主何愷明新作:應對樣本的不平衡分布,刷新密集物體檢測表現上限

    分享:
    相關文章

    知情人士

    我也是個旅途的浪人
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說