成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    業界 正文
    發私信給貝爽
    發送

    0

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    本文作者: 貝爽 2020-10-27 16:53
    導語:這個萬圣節,你就是朋友圈“最靚”的仔~

    萬圣節要來了!

    兩千多年前,凱爾特人相信,嚴寒的第一天,故人的亡魂會回到故居地在活人身上找尋圣靈,借此再生,這是人死后獲得重生的唯一希望。

    而活人則懼怕死人的靈魂來奪生,于是在10月31日這一天人們熄調火爐,把自己打扮成「妖魔鬼怪」把魂靈嚇走。

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    后來,歐洲基督教會便把11月1日定為“萬圣節”,并一直延續到了今天。

    不過,如今萬圣節已經變成了人們娛樂、惡搞的節日,人們尤其熱衷于制造詭異的面部妝效捉摸朋友。

    但通常一個令人驚恐的“喪尸妝”要花費十幾個小時,多少有些讓人頭疼。

    那么,有什么方法可以一鍵生成驚悚的喪尸妝呢?

    萬圣節定制『喪尸生成器』

    現在距離萬圣節還有3天,但小編已經在國外社交網絡上發現一大波喪尸照,我們來一起感受下~

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    美國女演員碧昂絲·諾利斯

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    美國演員、歌手威爾 · 斯密斯

    emmm,妝效過于專業了。

    難道新一季《行尸走肉》又要開播了?還換了演員?

    還有兩位總統候選人約瑟夫·拜登和唐納德·特朗普,恐怖又覺得有點搞笑......

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    看到這里,有朋友可能會想到這些圖片應該是來自網友們的惡搞。

    是的,這些真·喪尸全部出自一款『喪尸生成器』,只需輸入一張照片就可以立刻生成一張喪尸照,而且妝效感人......

    不知道大家還記不記得,之前小編曾報道過一款換臉網站Toonify,這個網站可以把人臉切換成動漫臉,效果非常逼真,上線當天訪問量就超過了25萬。它效果是這樣的:

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    體驗地址:https://toonify.justinpinkney.com/

    大眼萌臉,妥妥地定制化漫畫臉,正是這款變臉網站,激發了Josh Brown Kramer的靈感。

    既然一張照片可以秒變迪士尼公主,是不是也可以讓它秒變喪尸呢?

    因此,這位程序員小哥借鑒了Toonify的核心技術,開發了這款『喪尸生成器』,而且為了方便大家使用,也做成了網站形式,可免費使用。

    聽到這里是不是迫不及待想要體驗一下了?

    使用教程

    該網站名為Make Me A Zombie。操作簡單,出圖很快。

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    https://makemeazombie.com/

    只需要點擊鏈接,選擇Browse輸入一張人臉圖片,點擊藍色圖標即可。

    小編沒忍住用愛豆們的照片先體驗了一番,結果.....

    不得不說,王一博喪尸臉也是帥的[傲嬌]

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    欣欣子.....emmm還是在承受范圍內的。

    不過,馬爸爸這張[大笑],感覺特效化妝師都畫不出這樣的妝效。

    言歸正傳,經過幾張圖片測試,小編也發現兩個問題。一是生成器只針對面部進行識別和處理,如果輸入全身圖,系統會自動刪除多余的部分,只生成一個人臉照。

    二是輸入人臉照的生成效果比全身照更好,而且圖片越清晰效果也就越好。

    有了這個“喪尸生成器”,萬圣節不愁惡搞別人的“鬼照”了[奸笑]

    技術介紹

    Kramer介紹稱,該模型的開發與 Toonify 并無關聯,但使用的是相同的技術棧,即StyleGAN2.

    StyleGAN是當前最先進的高分辨率圖像合成方法,由英偉達在2018年首次推出。該方法可生成逼真的人臉圖像,其在FFHQ(Flicker-Faces-HQ)數據集上的表現,遠超DCGAN和ConditionalGAN。

    但StyleGAN也存在明顯的缺陷,即易出現斑點似的偽影(Artifacts)。

    去年12月,英偉達在StyleGAN原有架構基礎上進行了改進,并于CVPR 2020大會上推出升級版StyleGAN2。

    除了消除偽影外,StyleGAN2的一項重大更新是風格遷移(Style Transfer)技術。

    該研究團隊在論文《分析和改善StyleGAN的圖像質量》中指出,“總體而言,我們改進的模型在現有的分布質量指標和感知的圖像質量方面都重新定義了無條件圖像建模的最新技術。”

    簡單來說,該模型可以使用遷移學習技術生成各種風格的肖像,突破了圖像合成的風格限制。我們現在通常看到的人臉動漫化,或者動漫臉真人化本質都是利用的這張技術。

    例如:這是利用StyleGAN2在五種動漫和動物角色之間的無縫切換。

    我用“喪尸生成器”給愛豆們換了妝,效果太鬼畜!

    https://www.reddit.com/r/MachineLearning/comments/ijkkbb/p_crossmodel_interpolations_between_5_styleganv2/

    Kramer利用這項技術創建了一個混合型 StyleGAN2 模型。其中,該模型前層為人類圖像生成器,后層為喪尸生成器。在數據集方面,人類圖像生成器采用的是高質量的人臉數據集FFHQ,它包含70,000張PNG圖像,分辨率達1024x1024;僵尸生成器的訓練數據是一組包含300張萬圣節僵尸裝扮的人的圖像,主要來自Pinterest和Google,并對其進行了手動檢測刪除了非僵尸圖像。

    最后,在借鑒《StyleGAN2 Distillation for Feed-forward Image Manipulation》論文后,Kramer轉存了50000 個圖像對(分別來自人類生成器和喪尸生成器),并使用 Pix2PixHD 學習圖像對之間的映射。

    此外,Kramer也強調其與Toonify有兩點明顯的不同:

    • 我通過“crappify”的方法來調整圖像大小,并壓縮偽影。

    • 我們采用的混合模型不同。我的模型更強調原始圖像的形狀和方向,以及僵尸圖像的紋理和卡通化,而Toonify并不是。

    值得注意的是,關于僵尸生成器,Kramer從去年開始就有做過嘗試。當時利用的是CycleGAN模型,但采用的數據集是一樣的。起初,Kramer想研發一半是人像一半是僵尸的生成器。他將數百個示例分為兩類,分別學習帶有SVM的超平面,以確定潛在空間中的“僵尸”方向。接著再根據輸入的人臉生成特定的“僵尸”,并以此作為 Pix2Pix 數據的基礎。

    但這一過程遇到了兩個問題:一是雖然在生成的人類身上效果很好,但在真實圖像上只能產生中等水平的結果;二是僵尸和種族之間性質不同,我不想創造一個改變種族生成器。

    不過,相比之下,基于StyleGAN2架構的模型也有明顯的優勢。比如該模型能夠在2080Ti顯卡上訓練1024 x 1024大小的模型,效率高,而且經過預訓練后的輸出效果也比較好,在這兩點上CycleGAN2和Pix2PixHD相對差之。

    引用鏈接:

    https://www.reddit.com/r/MachineLearning/comments/jhl36y/p_turn_yourself_into_a_zombie_with_a_neural/

    https://github.com/fastai/course-v3/blob/master/nbs/dl1/crappify.py

    雷鋒網雷鋒網雷鋒網

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說