成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能開發者 正文
    發私信給skura
    發送

    0

    2019年最值得學習的機器學習項目(上)

    本文作者: skura 2019-11-02 11:01
    導語:附詳細代碼

    2019年最值得學習的機器學習項目(上)

    隨著神經網絡體系結構、深度學習和機器學習研究的快速發展,以及不斷增加的硬件+軟件資源,很多特別棒的演示項目數量正以令人眼花繚亂的速度增長。

    從人工智能生成的藝術品到實時跟蹤人類運動甚至更進一步,我們總結了一些我們最喜歡的深度學習項目,并附帶了視覺演示。

    毫無疑問,我們可以找到和強調的項目數不勝數,但希望這份清單能讓你對研究人員、從業者,甚至藝術家在 2019 年用機器學習和深度學習創造的東西有一個高層次的了解。

    一個有趣(也許并不奇怪)的注意是,這些演示很多都是使用了生成對抗網絡來創建的:它們自然會產生很好的視覺效果,而且體驗很好。

    為了補充演示,我嘗試在可用的地方提供鏈接資源(論文、代碼、項目頁面、完整視頻等)。

    帶樣式轉換的 wikiart+StyleGAN

    ——Gene Kogan

    在這里,我們基本上看到了將樣式轉換與 StyleGAN 相結合時可能出現的情況。我們將參考圖像的樣式直接應用到潛在的空間圖像。

    2019年最值得學習的機器學習項目(上)

    至少在該項目的 GANs 部分,Gene 分叉并使用 Nvidia 的回購協議來促進 GANs 的逐步增長:

    2019年最值得學習的機器學習項目(上)

    github:https://github.com/genekogan/progressive_growing_of_gans?source=post_page-----e74d7d347c2----------------------

    統一的 3D 姿態估計

    —— Yukihiko Aoyagi

    將 3D 姿態估計與 3D 開發平臺和 unity 這樣的渲染引擎結合起來,就可以實現像這樣迷人的 AR 項目。通過將這兩種強大的技術結合起來,AR 對象可以更精確地跟蹤三維空間中的人體運動。

    提示,這個項目暫時只支持單人姿態。

    2019年最值得學習的機器學習項目(上)

    twitter 網址:https://twitter.com/yukihiko_a

    2019年最值得學習的機器學習項目(上)

    代碼:https://github.com/yukihiko/ThreeDPoseUnitySample?source=post_page-----e74d7d347c2----------------------

    建筑機器翻譯

    ——Erik Swahn

    該項目以對象的視頻幀作為輸入,輸出現代建筑效果圖。這是一個有趣的機器翻譯應用。

    2019年最值得學習的機器學習項目(上)

    twitter 網址:https://twitter.com/erikswahn

    這里是代碼——找不到直接的源代碼,所以如果有人知道在哪里可以找到它,請在注釋中給我留言:

    2019年最值得學習的機器學習項目(上)

    github:https://github.com/memo/webcam-pix2pix-tensorflow?source=post_page-----e74d7d347c2----------------------

    消除圖像和視頻中的汽車

    ——Chris Harris

    Chris 可能沒有我們對這個演示印象深刻。A Vanilla Sky——esque 的項目,通過車輛檢測網絡屏蔽在城市街道上移動和停放的車輛,并在檢測到的車輛上添加 AR 模糊效果。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/kozmoharris/status/1125390364691640321

    這里有一個詳細的概述,討論如何做這個項目以及相關的原因。網址:http://harrischris.com/article/biophillic-vision-experiment-1 

    有靈感嗎?Fritz AI 擁有自己創建的優秀項目和將 itt 部署到 mobile 所需的工具、專業知識和資源。從 Fritz AI 開始,教你的設備去看,去聽,去感覺,去思考。

    用 gan 將圖像轉換為看不見的域

    ——Ming-Yu Liu, NVIDIA

    摘要:

    從少數樣本中提取新對象的特征并歸納總結,我們尋求 few-shot,無監督的圖像到圖像的翻譯算法。我們的模型通過將對抗性訓練方案與一種新的網絡設計相結合來實現這種 few-shot 生成能力。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/liu_mingyu

    項目頁面:

    2019年最值得學習的機器學習項目(上)

    網址:https://nvlabs.github.io/FUNIT/?source=post_page-----e74d7d347c2----------------------

    論文:

    2019年最值得學習的機器學習項目(上)

    網址:https://arxiv.org/abs/1905.01723?source=post_page-----e74d7d347c2----------------------

    無限模式

    ——Alex Mordintsev

    Alex 在谷歌工作,他是 DeepDream 的創始人,這是一個計算機視覺程序,它使用神經網絡來發現和創建圖像中的模式。這些無限循環經常是夢幻的,甚至是幻覺。我幾乎認為這些是移動墻紙。他在下面的 twitter 上有一些,所以一定要按照鏈接查看。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/zzznah/status/1125393901815238656

    這篇文章在谷歌的實驗中探索了這個項目,并討論了它是如何與 Pinar&Viola,一個數字藝術組合合作的:  

    2019年最值得學習的機器學習項目(上)

    網址:https://experiments.withgoogle.com/infinitepatterns?source=post_page-----e74d7d347c2----------------------

    從單張圖片進行完整的 3d 家庭試鏡

    —— Angjoo Kanazawa

    最近,我們看到對嘗試體驗的興趣激增,像古馳(gucci)這樣的零售商正在探索如何讓他們的用戶在自己家(或在地鐵上,或在工作中)舒適地使用他們的產品。

    但這些體驗只會和支撐它們的 3D 表示一樣好。該項目引入了「像素對齊隱式函數(PIFu)」,這是一種高效的隱式表示,它將二維圖像的像素與其對應的三維對象的全局上下文局部對齊。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/akanazawa

    項目頁面:

    2019年最值得學習的機器學習項目(上)

    網址:https://shunsukesaito.github.io/PIFu/?source=post_page-----e74d7d347c2----------------------

    論文:

    2019年最值得學習的機器學習項目(上)

    網址:https://arxiv.org/abs/1905.05172?source=post_page-----e74d7d347c2----------------------

    GANs+像素藝術

    ——Max Braun

    一個有趣的人工智能藝術項目,將一個 GAN 組合在一個無限循環中,在 eBoy 數據集上進行訓練。對于那些不熟悉的人,eBoy 創建可重用的像素對象,并使用這些對象來創建藝術品、制作玩具等。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/maxbraun

    代碼:

    2019年最值得學習的機器學習項目(上)

    網址:https://github.com/maxbbraun/eboygan?source=post_page-----e74d7d347c2----------------------

    Colab Notebook:

    2019年最值得學習的機器學習項目(上)

    網址:https://colab.research.google.com/drive/1IXI9cBgqS1_4A9Quhhve3B7uPMshauKX?source=post_page-----e74d7d347c2----------------------#forceEdit=true&offline=true&sandboxMode=true

    eBoy:

    2019年最值得學習的機器學習項目(上)

    網址:http://hello.eboy.com/eboy/?source=post_page-----e74d7d347c2----------------------

    花更少的時間搜索,更多的時間建設。報名參加每周一次的深度學習活動,深入了解最新的新聞、最佳教程和最重要的項目。

    軌跡預測

    ——由 deeplearning.ai 發布,來自 Carnegie Melon, Google AI 和 Stanford 的研究

    在人類活動跟蹤領域,預測人們將要移動到哪里是一個非常有趣的項目。這樣的應用比比皆是,從理解零售業中的客戶行為到群體分析等等。更進一步的說,這個演示包括對特定人活動(如交通、工作等)的性質和背景的預測。

    2019年最值得學習的機器學習項目(上)

    論文:

    2019年最值得學習的機器學習項目(上)

    網址:https://arxiv.org/abs/1902.03748?source=post_page-----e74d7d347c2----------------------

    以橙汁為切入點走進 AR 世界

    ——キヨ

    這是一個令人驚奇的,關于如何利用增強技術將富有想象力的數字世界與現實世界中的物體融為一體的項目。雖然找不到任何底層代碼或項目頁面,但是這個演示顯示了 AR+ML 在釋放這些想象力和藝術體驗方面的潛力。

    網址:https://medium.com/m/global-identity?redirectUrl=https%3A%2F%2Fheartbeat.fritz.ai%2Fcombining-artificial-intelligence-and-augmented-reality-in-mobile-apps-e0e0ad2cfddc 

    學著忘記一張臉的模型

    ——posted by Joseph Reisinger

    下面 tweet 中的引用很好地總結了這個項目。我們看到了很多演示,展示了一個神經網絡生成新的、真實照片的人和圖像。但在這里,我們看到的過程是相反的——解構一個生成的肖像,網絡的神經元被一個接一個地切斷。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/josephreisinger/status/1138250263934857217

    使用 tensorflow.js 進行身體部位分割

    ——Google Developers

    在 Google I/O 2019,這個來自 tensorflow 團隊的演示展示了實時運動跟蹤和圖像分割。為了讓這種體驗實時工作,他們運行兩個身體部位分割模型,將它們匹配起來,運行動態時間扭曲,然后播放和編碼視頻。以 Tensorflow Lite 的 GPU 加速為特色。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/googledevs

    用姿態估計把自己變成 3D 化身

    ——青絵

    這種體驗結合了姿態估計和 AR,將用戶轉化為怪物(或任何 3D 角色化身)。這個演示在這個詞最字面的意義上是變革性的。最讓人印象深刻的也許是移動跟蹤的精確性和精確性——化身與用戶的移動非常匹配。還有一些很酷的用戶體驗,包括一個基于手勢的轉換機制,以及一個整潔的聲音效果,同時化身正在生成。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/aoepng

    利用目標檢測跟蹤垃圾和其他人行道障礙物

    ——Paula Piccard

    最讓我印象深刻的是被檢測到的性質——攝像機移動的速度,以及瞬時檢測。這種應用程序有可能改變我們對所謂「智慧城市」的看法。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/Paula_Piccard

    用 GANs 畫出逼真的風景

    ——作者 Kevin Lim

    如果你觀看此演示,你會注意到左側的人造繪圖看起來像你在諸如 MS Paint 之類的舊應用程序中看到的東西。如何將這些粗糙的景觀生成和渲染為照片級真實風景是值得注意的。這類應用程序會錯使我認為我實際上是一個藝術家!

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/_kevinlim 

    神經網絡延時(GAN)

    ——作者 Spiros Margaris

    很難找到這個項目的作者,但它的新奇性和可重復性有著令人難以置信的吸引力。

    它的 YouTube 視頻描述是這樣的:

    左邊是源臉,Theresa May。下一個步驟是學習她的臉,然后使用它的學習到的模型重建她的照片。接下來是目標臉和它正在建立的模型。最后,在最右邊的第五欄(lol)是對 Theresa May 臉部的再現,需要與目標臉部的位置和表情相匹配。

    youtube 視頻:https://www.youtube.com/channel/UCkMQyMq7xVjtMP2nl3uAQjg

    從單個圖像進行反向場景渲染

    ——Will Smith

    摘自論文摘要:

    我們展示了如何訓練一個完全卷積的神經網絡來從單個的,不受控制的圖像進行逆向渲染。該網絡以 rgb 圖像為輸入,利用回歸反射率計算法向光照系數。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/WillSmithVision

    代碼和實踐:

    2019年最值得學習的機器學習項目(上)

    網址:https://github.com/YeeU/InverseRenderNet?source=post_page-----e74d7d347c2---------------------- 

    論文:

    2019年最值得學習的機器學習項目(上)

    網址:https://arxiv.org/abs/1811.12328?source=post_page-----e74d7d347c2---------------------- 

    基于粒子效應的 ARKit 3 人體分割

    ——Laan Labs

    另一個非常吸引人的視覺演示,是將增強現實效果與深度學習結合起來。在這里,laan labs(一家專營邊緣技術的精品 ML/CV 店)在一個人體分割模型上應用了一種溶解粒子效應。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/laanlabs

    用 YOLO 實時檢測手指

    ——Andrew Mendez

    Andrew 在這個演示中很好地描述了引擎蓋下的情況,展示了 iOS 上令人印象深刻的實時結果。正如 Andrew 所提到的那樣,有很多可能加入到這個基線體驗 AR,進行手指跟蹤等等。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/AndrewMendez19

    使用 GPT-2 在移動應用程序中生成文本

    ——Hugging Face

    在 Hugging Face 上的人們已經在 transformer 和其他 nlp 架構上取得了令人難以置信的進展。不僅僅是服務器端,他們還致力于模型蒸餾,努力將這些功能強大的語言模型嵌入到設備中。這個演示特別關注文本的自動生成完成。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/julien_c 

    試一下吧:

    2019年最值得學習的機器學習項目(上)

    網址:https://transformer.huggingface.co/?source=post_page-----e74d7d347c2----------------------

    權重未知的神經網絡

    ——hardmaru

    與權重無關的神經網絡的想法令人信服,它讓我們質疑與底層架構相比,權重參數有多重要。摘要很好地揭示了這種動態:

    并非所有的神經網絡體系結構都是平等的,有些在某些任務上比其他的要好得多。但是,與神經網絡的結構相比,神經網絡的權值參數有多重要?在這項工作中,我們質疑在沒有學習任何權重參數的情況下,單靠神經網絡架構能在多大程度上對給定任務的解進行編碼。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/hardmaru

    項目頁面:

    2019年最值得學習的機器學習項目(上)

    網址:https://weightagnostic.github.io/?source=post_page-----e74d7d347c2----------------------

    論文:

    2019年最值得學習的機器學習項目(上)

    網址:https://arxiv.org/abs/1906.04358?source=post_page-----e74d7d347c2----------------------

    MediaPipe:一個結合了深度學習和傳統 CV 管道的框架

    ——Google AI 發布,作者 Diakopoulos

    MediaPipe 是 Google 將傳統 CV 任務與深度學習模型相結合的相對較新的管道。這個新的框架真的為更沉浸式和互動性 AR 體驗打開了大門。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/ddiakopoulos

    github:

    2019年最值得學習的機器學習項目(上)

    網址:https://github.com/google/mediapipe?source=post_page-----e74d7d347c2----------------------

    博客和案例:

    2019年最值得學習的機器學習項目(上)

    網址:https://ai.googleblog.com/2019/08/on-device-real-time-hand-tracking-with.html?source=post_page-----e74d7d347c2----------------------

    全三維姿態估計:身體、手和臉

    ——CMU,HCI Research 發布

    該項目代表了第一種使用單目視圖輸入捕獲整個三維運動的方法。該技術生成一個三維可變形網格模型,然后用于重建全身姿態。從視覺的角度來看,這個等式的「total」部分對我們來說印象最深刻。以這種方式重建面部、身體和手的姿態的能力,讓一個真正令人驚嘆的演示成為可能。

    2019年最值得學習的機器學習項目(上)

    twitter:https://twitter.com/HCI_Research 

    代碼:

    2019年最值得學習的機器學習項目(上)

    網址:https://github.com/CMU-Perceptual-Computing-Lab/MonocularTotalCapture?source=post_page-----e74d7d347c2----------------------

    項目頁面:

    2019年最值得學習的機器學習項目(上)

    網址:http://domedb.perception.cs.cmu.edu/monototalcapture.html?source=post_page-----e74d7d347c2----------------------

    via:http://t.cn/Ai1SuSVf

    雷鋒網雷鋒網雷鋒網

    雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

    2019年最值得學習的機器學習項目(上)

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說