成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能學術 正文
    發私信給AI研習社
    發送

    0

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

    本文作者: AI研習社 2020-01-13 15:30
    導語: 每天都為你精選關于人工智能的前沿學術論文供你學習參考。

    為了幫助各位學術青年更好地學習前沿研究成果和技術,AI科技評論聯合Paper 研習社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關于人工智能的前沿學術論文供你學習參考。以下是今日的精選內容——

      目錄

    • ClothFlow: A Flow-Based Model for Clothed Person Generation

    • Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

    • SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

    • Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

    • Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

    • Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

    • node2vec: Scalable Feature Learning for Networks

    • Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

    • Coordination of Autonomous Vehicles: Taxonomy and Survey

    • A Survey on 3D Object Detection Methods for Autonomous Driving Applications

      ClothFlow: 基于流程的人員生成模型

    論文名稱:ClothFlow: A Flow-Based Model for Clothed Person Generation

    作者:Xintong Han / Xiaojun Hu / Weilin Huang / Matthew R. Scott

    發表時間:2019/10/27

    論文鏈接:https://paper.yanxishe.com/review/8611?from=leiphonecolumn_paperreview0113

    推薦理由:

    提出了一個基于外觀流的生成模型ClothFlow,該模型可以合成穿衣人,用于定位引導的人的圖像生成和虛擬試穿。ClothFlow通過估計源和目標服裝區域之間的密集流動,有效地模擬了幾何變化,自然地轉移了外觀,合成了新的圖像,如圖1所示。我們通過一個three-stage框架實現了這一點:1)以目標姿態為條件,我們首先估計一個人的語義布局,為生成過程提供更豐富的指導。2)級聯流量估計網絡建立在兩個特征金字塔網絡的基礎上,準確地估計出對應服裝區域之間的外觀匹配。由此產生的稠密流扭曲源圖像,靈活地解釋變形。3)最后,生成網絡以扭曲的服裝區域為輸入,呈現目標視圖。我們在深度時尚數據集和VITON數據集上進行了大量的實驗,分別用于定位引導的人物圖像生成和虛擬實驗任務。較強的定性和定量結果驗證了該方法的有效性。

    Pose-guided person generation 和Virtual try>※ Deformation-based methods (eg: affine ; TPS;NN)

    ※ DensePose-based methods

    即基于變形的方法和基于密度的方法

    幾何變形的更好的外觀轉移,但是較大的幾何變換,容易導致不準確、不自然的變換估計

    基于密度的方法,映射2D圖片到3D的人身體,結果看起來不夠逼真。

    因此作者提出的ClothFlow:a flow-based generative model ;解決衣服變形clothing deformation;從而更好的合成人穿衣的圖片;

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      雙向門控遞歸單元網絡的表格結構提取

    論文名稱:Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

    作者:Khan Saqib Ali /Khalid Syed Muhammad Daniyal /Shahzad Muhammad Ali /Shafait Faisal

    發表時間:2020/1/8

    論文鏈接:https://paper.yanxishe.com/review/8614?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文要解決的是表格結構識別的問題。

    表向讀者呈現了匯總的結構化信息,這使表結構提取成為理解應用程序的重要組成部分。但是,表結構的識別是一個難題,這不僅是因為表布局和樣式的變化很大,而且還因為頁面布局和噪聲污染水平的變化。已經進行了很多研究來識別桌子的結構,其中大部分是基于借助光學字符識別(OCR)將啟發式方法應用于桌子的手抓布局特征的。由于表布局的變化以及OCR產生的錯誤,這些方法無法很好地概括。

    在本文中,作者提出了一種基于魯棒深度學習的方法,可以從文檔圖像中的檢測表中高精度提取行和列。在提出的解決方案中,首先對表格圖像進行預處理,然后將其饋送到具有門控循環單元(GRU)的雙向循環神經網絡,然后是具有最大軟激活的完全連接層。網絡從上到下以及從左到右掃描圖像,并將每個輸入分類為行分隔符或列分隔符。作者已經在公開的UNLV以及ICDAR 2013數據集上對作者的系統進行了基準測試,在該數據集上,其性能遠遠超過了最新的表格結構提取系統。這篇論文在公開的UNLV和ICDAR 2013數據集上進行了實驗,驗證了所提出的方法顯著優于當前該領域的最佳方案。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      SPACE:通過空間注意和分解的無監督的面向對象的場景表示

    論文名稱:SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

    作者:Lin Zhixuan /Wu Yi-Fu /Peri Skand Vishwanath /Sun Weihao /Singh Gautam /Deng Fei /Jiang Jindong /Ahn Sungjin

    發表時間:2020/1/8

    論文鏈接:https://paper.yanxishe.com/review/8615?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文考慮的是多目標場景分解的問題。

    基于對象的場景表示學習的無監督方法可以分為基于空間注意力機制和基于場景混合這兩類,然而這些方法都受限于可擴展性,阻礙了它們進一步應用于現實場景。這篇論文提出一個名為SPACE的生成潛在變量模型,以提供一套統一的概率建模框架來組合空間注意力與場景混合中的最佳方法。SPACE可以為前景對象提供精準的分解對象表示信息,同時分解復雜形態的背景片段。另外,SPACE也通過引入并行的空間注意力機制解決了擴展性問題,因而可以應用到含有大量對象的場景中。在Atari和3D-Rooms上的實驗表明,SPACE與先前的方法SPAIR,IODINE和GENESIS相比具有更好的表現。作者們也提供了項目的網站(https://sites.google.com/view/space-project-page)。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      基于云的圖像分類服務對簡單的轉換不是很魯棒:一個被遺忘的戰場

    論文名稱:Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

    作者:Goodman Dou /Wei Tao

    發表時間:2019/6/19

    論文鏈接:https://paper.yanxishe.com/review/8617?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文考慮的是對基于云的圖像分類服務的對抗樣例生成問題。

    基于云的圖像分類服務對于諸如高斯噪聲、椒鹽噪聲、旋轉和單色化之類的簡單轉換(ST)并不魯棒。基于這一點,這篇論文提出了一個圖像融合攻擊(Image Fusion,IF)方法,利用OpenCV就可以實現,而且很難防御。這篇論文在Amazon,Google,Microsoft,Clarifai在內的四個流行云平臺上評估了ST和IF方法,實驗結果表明除了在Amazon上成功率在50%之外,ST在其他的平臺上的攻擊成功率都為100%,而IF方法在不同分類服務中的成功率均超過98%。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      用于反向和串行風格遷移的通過隱寫術進行的自包含樣式化

    論文名稱:Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

    作者:Chen Hung-Yu /Fang I-Sheng /Chiu Wei-Chen

    發表時間:2018/12/10

    論文鏈接:https://paper.yanxishe.com/review/8618?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文考慮的是圖像風格遷移的問題。

    給定一個風格化的圖像,使用典型的風格遷移方法進行去樣式化或將其再次轉換為另一種樣式,通常會得到偽像或不良的結果。這篇論文認為這類問題是由于原始圖像與其樣式輸出之間的內容不一致所導致的。這篇論文提出利用隱寫術在遷移過程中保持輸入圖像內容信息,并提出了一個兩階段的方法和一個端到端的方法。實驗結果表明這篇論文提出的方法不僅能生成與典型風格遷移方法所產生的圖像質量相當的風格化圖像,而且還可以有效消除重建原始輸入時引入的偽像。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      不要通過上下文來判斷對象:學會克服上下文的偏見

    論文名稱:Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

    作者:Singh Krishna Kumar /Mahajan Dhruv /Grauman Kristen /Lee Yong Jae /Feiszli Matt /Ghadiyaram Deepti

    發表時間:2020/1/9

    論文鏈接:https://paper.yanxishe.com/review/8619?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文考慮的是對象識別問題。

    在對象識別中,現有模型常常利用對象和其上下文的共現信息來提升識別準確率。但是,嚴重依賴上下文可能會對模型的泛化性造成風險。這篇論文試圖解決這種上下文偏移問題,以提升學到的特征表示的魯棒性,使得在一個對象的上下文缺失的情況下依然能準確識別出其類型。這篇論文的核心想法是從共現的上下文中去掉與類別的特征表示相關的信息,通過聯合學習兩類特征空間,一類特征子空間能在沒有共現的情況下精準表示類別,另一類則同時表示類別和上下文。在四個充滿挑戰的數據集上的實驗證明這篇論文所提出的方法的有效性。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      node2vec 網絡特征學習算法

    論文名稱:node2vec: Scalable Feature Learning for Networks

    作者:Grover Aditya /Leskovec Jure

    發表時間:2016/7/3

    論文鏈接:https://paper.yanxishe.com/review/8624?from=leiphonecolumn_paperreview0113

    推薦理由:本文來自網絡分析超強組Stanford的Jure組.

    deepwalk作為一種基于隨機游走的網絡表示學習算法,通過在網絡進行隨機游走來獲取節點序列.

    但是網絡上的隨機游走有深度優先和廣度優先,并且他們可以從不同角度來捕獲網絡本身結構特點.本文在deepwalk的基礎上設計了一種個性化的隨機游走,通過兩個超參數p和q來控制隨機游走的方向.需要注意的是,當p=q=1的時候,node2vec退化成deepwalk.至于表示學習模型的部分還是skip-gram并沒有本質變化.

    實驗結果也驗證了本文所提出算法的有效性.

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      匯率可以用來預測上證指數嗎?

    論文名稱:Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

    作者:Jun Zhang / Yuan-Hai Shao /Ling-Wei Huang /Jia-Ying Teng / Yu-Ting Zhao /Zhu-Kai Yang / Xin-Yang Li

    發表時間:2019/12/25

    論文鏈接:https://paper.yanxishe.com/review/8612?from=leiphonecolumn_paperreview0113

    推薦理由:這篇論文首次嘗試了直接利用匯率來預測上證指數,基本做法是構建基于匯率的技術指標作為輸入特征,然后利用SVM進行走勢的分類。通過與基于其他輸入(例如基于歷史價量的技術指標、新聞數據等)的預測相比,這篇論文證明了通過匯率來預測具有相近的表現。并且這篇論文公開了相應的數據和Matlab代碼。

    這篇論文的關注點在于輸入數據,而沒有采用特別復雜的模型,例如深度學習模型等。目前多數據源作為輸入來預測股市的走勢正在成為趨勢,往往會比采用單一數據具有更好的表現。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      自動駕駛車輛的協調:分類和綜述

    論文名稱:Coordination of Autonomous Vehicles: Taxonomy and Survey

    作者:Mariani Stefano /Cabri Giacomo /Zambonelli Franco

    發表時間:2020/1/8

    論文鏈接:https://paper.yanxishe.com/review/8613?from=leiphonecolumn_paperreview0113

    推薦理由:這是一篇關于自動駕駛車輛調度問題的綜述。自動駕駛的車輛之間需要進行協調,以正確處理對共享資源的訪問(例如交叉路口和停車位)以及執行機動任務(例如坡道合并)。這篇論文首先通過識別和構建關鍵的調度問題類別,介紹與自動駕駛汽車調度相關的一般問題。然后概述了可用于管理此類調度問題的不同方法,并根據調度協調過程中車輛的決策自主程度對這些方法進行分類。最后,這篇論文概述了在自動駕駛車輛能夠實用之前,必須解決的其他一些特殊挑戰。這篇論文關注的是自動駕駛車輛之間的調度問題,在自動駕駛實用之前還有很多其他相關的問題需要解決。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

      面向自動駕駛應用的三維目標檢測方法綜述

    論文名稱:A Survey>作者:Eduardo Arnold /Omar Y. Al-Jarrah /Mehrdad Dianati /Saber Fallah /David Oxtoby /Alex Mouzakitis

    發表時間:2019/1/22

    論文鏈接:https://paper.yanxishe.com/review/8620?from=leiphonecolumn_paperreview0113

    推薦理由:自動駕駛汽車(AV)需要對其周圍環境有準確的感知才能可靠地運行。通常采用機器學習(例如,深度學習)的AV的感知系統將感覺數據轉換成能夠自動駕駛的語義信息。對象檢測是該感知系統的基本功能,已經通過多項工作解決了這些問題,其中大多數使用2D檢測方法。但是,二維方法不提供深度信息,這是駕駛任務所需的深度信息,例如路徑規劃,避免碰撞等。替代地,3D對象檢測方法引入了第三維,它揭示了更詳細的對象尺寸和位置信息。但是,這種方法的檢測精度需要提高。據所知,這是用于自動駕駛應用的3D對象檢測方法的首次調查。

    這篇文章對自動駕駛場景中的三維目標檢測方法進行了詳細的綜述,并且介紹了目前普遍使用的傳感器和數據集。本文根據三維目標檢測方法所使用到的傳感器,將其分為基于單目相機圖像、點云和融合三大類。然后總結這些方法的在同一數據集上的實驗結果,以及已有方法存在的不足和未來值得研究的方向。

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等
    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

    雷鋒網雷鋒網雷鋒網


    相關文章:

    今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等

    今日 Paper | 高維感官空間機器人;主動人體姿態估計;深度視頻超分辨率;行人重識別等

    今日 Paper | 3D手勢估計;自學習機器人;魯棒語義分割;卷積神經網絡;混合高斯過程等

    今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等

    今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等

    今日 Paper | 問答系統;3D人體形狀和姿勢;面部偽造檢測;AdderNet等

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學習;圖像風格遷移等

    分享:
    相關文章

    編輯

    聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說