英偉達“AI假臉王”開源:新一代GAN攻破幾乎所有人臉識別系統
來源:Github 編譯:文強
還記得英偉達震撼世人的 新一代GAN 嗎?
以假亂真的精細人臉生成,令不少研究人員都驚呼:已經無法分辨虛擬和現實!
上述人臉全部由計算機生成,StyleGAN的全新風格遷移生成器架構能控制髮色、眼睛大小等臉部特徵。來源:github.com/NVlabs/stylegan
現在,這個StyleGAN已經開源,而且附上官方TensorFlow實現(點選“閱讀原文”瞭解更多)。
論文、原始碼、高清Flickr人臉影象資料集等所有的材料都公佈了出來,非商業使用的情況下,這些素材任你使用和修改(Flickr人臉資料集參考另外的開源協議)。
Github庫裡還包含了一個基礎的預訓練StyleGAN生成器 pretrained_example.py,下載後使用相關Python程式碼,就可以直接用來生成影象了。
另一個更高階的樣例是 generate_figures.py,這個指令碼是用來生成論文中風格變換/混合、鼻子大小和髮色調整等功能。
更詳細的使用說明請參考Github庫:https://github.com/NVlabs/stylegan。
不過,需要提前說明的是,要生成1024*1024解析度的影象,如果使用英偉達Tesla V100 GPU做訓練,硬體配置和訓練時間如下:
“使用較少的GPU可能無法實現與論文同樣的效果——如果你想跟我們的技術一較高下,我們強烈推薦你使用同樣數量的GPU。”
開源StyleGAN,莫非還有一絲賣顯示卡的因素(誤)。
新一代StyleGAN:影象逼真到可怕,能生成世界萬物
基於GAN的架構一個又一個推出,要是你一時間想不起來StyleGAN也沒關係,多上幾張圖有助於你回憶:
這個模型並不完美,但確實有效,而且 不僅僅可用於人類,還能用於汽車、貓、風景影象的生成。
英偉達研究人員在論文中寫道,他們提出的新架構可以完成自動學習,無監督地分離高階屬性(例如在人臉上訓練時的姿勢和身份),以及生成影象中的隨機變化,並且可以對合成進行更直觀且特定於比例的控制。
換句話說,這種新一代GAN在生成和混合影象,特別是人臉影象時,可以 更好地感知影象之間有意義的變化,並且在各種尺度上針對這些變化做出引導 。
例如,在上面的動圖中,其實面部已經完全變了,但“源”和“樣式”的明顯標記顯然都得到了保留。為什麼會這樣?請注意,所有這些都是完全可變的,這裡說的變數不僅僅是A + B = C,而且A和B的所有方面都可以存在/不存在,具體取決於設定的調整方式。
而StyleGAN之所以強大,就在於它使用了基於風格遷移的全新生成器架構:
傳統生成器架構和基於風格的生成器架構對比
在傳統方式中,隱碼(latent code)是通過輸入層提供給生成器的,即前饋網路的第一層(圖1a)。而英偉達團隊 完全省略了輸入層 ,從一個學習的常量(learned constant)開始,從而脫離了傳統的設計(圖1b,右)。在輸入隱空間Z中,給定一個隱碼z,一個非線性網路 f:Z→W首先生成w∈W(圖1b,左)。
英偉達團隊的生成器架構可以通過對樣式進行特定尺度的修改來控制影象合成。可以將 對映網路和仿射變換 看作是一種從學習分佈(learned distribution)中為每種樣式繪製樣本的方法,而將 合成網路 看作是一種基於樣式集合生成新影象的方法。修改樣式的特定子集可能只會影響影象的某些方面。
負責任地使用,避免成為又一個“DeepFake”
之前,大多數研究都集中在如何提高“換臉”技術上,也就是如何讓計算機生成超逼真的人臉。
誰料,這種技術發展的濫用造成了反效果,也即所謂的“DeepFake”。現在,DeepFake已被用於指代所有看起來或聽起來像真的一樣的假視訊或假音訊。
去年底,Idiap 生物識別安全和隱私小組負責人 (注:Idiap研究所是瑞士的一家半私人非營利性研究機構,隸屬於洛桑聯邦理工學院和日內瓦大學,進行語音、計算機視覺、資訊檢索、生物認證、多模式互動和機器學習等領域的研究)、瑞士生物識別研究和測試中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士後 Pavel Korshunov 共同撰寫了論文, 首次對人臉識別方法檢測 DeepFake 的效果進行了較為全面的測評 。
他們經過一系列實驗發現, 當前已有的先進人臉識別模型和檢測方法,在面對 DeepFake 時基本可以說是束手無策 ——效能最優的影象分類模型 VGG 和基於 Facenet 的演算法, 分辨真假視訊錯誤率高達 95% ;基於脣形的檢測方法,也基本檢測不出視訊中人物說話和口型是否一致。
Pavel Korshunov 和 Sébastien Marcel 指出,隨著換臉技術的不斷髮展,更加逼真的 DeepFake 視訊,將對人臉識別技術構成更大的挑戰。
“在 DeepFake 方法和檢測演算法之間的一場新的軍備競賽可能已經開始了。”
StyleGAN的開源,無疑也會增強DeepFake的製作。因此,谷歌大腦研究員Eric Jang呼籲,請負責任地使用!
訪問Github庫:https://github.com/NVlabs/stylegan
宣告:本文來自新智元,版權歸作者所有。文章內容僅代表作者獨立觀點,不代表安全內參立場,轉載目的在於傳遞更多資訊。如需轉載,請聯絡原作者獲取授權。