本文來自微信公眾號:愛范兒(ID:ifanr),作者:黃智健,頭圖來自:NVIDIA
科幻電影《銀翼殺手》描繪了一個真假難辨的未來世界:
誰是復制人?圖片來自:《銀翼殺手 2049》
人類制作的“復制人”有著和人類近乎一模一樣面孔,除非用專業(yè)的儀器做情緒測試,或者找到其隱藏在體內的編號,否則人類根本無法從外觀上辨認“復制人”。
這樣的未來世界可能有些遙遠,但如果只看臉的話,你可能真的無法辨認真假。
一、AI“假臉”已跨越恐怖谷
先來看一組圖片,你有信心一眼分辨出“假人臉”嗎?
以上哪張臉是假的?(答案請見文末,但是別著急,接下來還有很多臉)
這里提到的“假人臉”概念指的是由 AI 合成的人臉照片,而非真人拍攝,如果你覺得一時間很難判斷真假,別擔心,你并不是個例。
加州大學伯克利分校的 Hany Farid 教授多年來一直在從事 AI 圖像合成技術的研究。
根據(jù)他近日發(fā)表在美國國家科學院院刊的一項研究顯示,AI 合成的人臉已與真人沒有區(qū)別,甚至看起來比真人更值得信賴。
這樣的研究結果出乎了研究人員的預料。
共同參與此項研究的 Sophie Nightingale 博士稱最開始開展研究的目的,就是為了借助真人對比找到提高 AI 人臉可信度的方法。
Farid 認為目前 AI 圖像合成技術發(fā)展和改進的速度非常迅速,比傳統(tǒng)的 CG 成像還要快。
我們認為,我們已經(jīng)跨越了靜態(tài)面孔的恐怖谷效應。
恐怖谷效應是一種心理學理論,人會對與人相似的物體產生好感,但當相似度達到了一定程度時(例如僵尸、擬人玩偶),人的反應便會變得極其負面和反感。
而當相似度進一步上升,達到與真人接近的相似度時,人的情感反應又會恢復正面,還有可能產生人類之間的移情效應。
從 Farid 的實驗結果來看,AI 合成的人臉很可能已經(jīng)脫離了“行尸走肉”的階段。
如此逼真的人臉是怎么合成的?
生成對抗網(wǎng)絡(GANs)是目前最主流的合成算法,名字聽起來非常陌生,但其邏輯并不復雜。
簡單來說 GAN 里有一個“畫家”和一個“鑒定師”,“畫家”需要畫出盡可能像人臉的圖片,交給“鑒定師”評判。
“鑒定師”在評判之前要看非常多的真人照片,分析出人臉的特征,當“畫家”的畫能夠騙過閱臉無數(shù)的“鑒定師”時,一張 AI 合成人臉照片就誕生了。
在這個過程中,“鑒定師”經(jīng)過不斷的學習準確度會不斷提高,相應的“畫家”的技藝也要隨之增長,兩者形成一種對抗關系,從而提高合成圖像的質量,直到能夠以假亂真。
Farid 在實驗中采用的是英偉達發(fā)布的 Nivdia StyleGAN2 模型,為了研究其合成照片的可信度,研究人員組織了三場實驗。
第一場實驗,研究人員邀請 315 名參與者分別分辨 128 組(共 800 組)由真人和 AI 合成組成的照片組,結果參與者的平均正確率低于五成,只有 48.2%。
接著開展第二次實驗時,研究人員邀請 219 位接受過培訓的新參與者參加同樣的實驗,并在參與者每次分別后都給予正確與否的反饋。
在研究人員的幫助下,第二次實驗的正確率有所提升,但也只是稍稍超過五成,達到 59.0%。AI 合照的擬真程度并沒有讓 Farid 和 Nightingale 感到意外,但實驗三的結果,卻是他們始料未及的。
第三次實驗是由 223 名新參與者為同一批照片的可信賴程度從 1-7 分進行打分,結果顯示,AI 合成照片的可信度竟然比真人臉還要高 7.7%,這個微小的差距在統(tǒng)計學上有著重要的意義。
?
?
研究人員認為,已具備一定可信度的 AI 合成照片未來很有可能會被不法分子利用,在社交網(wǎng)絡實施詐騙或引起混亂,這個問題需要得到社會的重視,并且圖片合成技術的發(fā)展需要一些條約約束。
那么問題來了,既然 AI 合成人臉具有一定的社會風險,為什么人們還要投入精力研究呢?
二、AI 人臉很好,但是把“雙刃劍”
2019 年 E3 電子游戲展上,基努李維斯在《賽博朋克 2077》預告片中的驚喜亮相瞬間引爆了所有場內外觀眾的情緒,隨即其本人上場宣布將擔任游戲中重要角色“強尼銀手”的臉模,勾起了無數(shù)玩家的期待。
因為在虛擬世界中,一張逼真的人臉能給玩家?guī)韽娏业某两?,隨著游戲機能的提升,用真人作為臉模代替數(shù)字捏臉,成為了越來越多游戲廠商塑造角色的手段。
但使用真人臉模,往往意味著高昂的肖像授權費以及動作捕捉成本,這對一些小型工作室來說并不現(xiàn)實。
這時候一張免版權的 AI 合成人臉便能派上用場——由一個世界上并不存在的人來扮演虛擬角色,聽起來合情合理。
例如免費 AI 合成照片項目 Generated Photo 就與動畫軟件公司 Reallusion 合作,用 AI 合成的人像用作動畫、游戲或者廣告的 3D 形象上,開發(fā)者可以自由地選擇人物的種族、年齡、性別,并且不會有版權問題。
可以試想一下,假如模擬人生或者 GTA 等游戲的 NPC 人臉都由逼真的人像制作,游戲的沉浸感和臨場感將得到大幅提升。
除了游戲,一些客服類軟件也需要大量的真人頭像與客戶溝通,如果將真人頭像換用 AI 人像,既可以避免人像版權糾紛,又能保護個人隱私不被泄露。
不過,雖然 AI 合成照片有著合理的存在意義,但與此同時,也會對網(wǎng)絡照片的真實性造成一定沖擊,畢竟誰也不想在交友 app 被一個根本不存在的人迷得神魂顛倒。
Farid 認為想要解決這個問題,唯一的辦法就是為每張真實拍攝的照片加入一個“真實性”認證,這樣人們在瀏覽和使用照片時,才能辨別其真實性。
這聽起來就像是《銀翼殺手》的逆向版本,電影里人們在復制人的眼球中刻入編號識別,現(xiàn)實中則相反地在真實照片標記,以對抗“假貨”。
事實上,目前 Adobe、微軟等公司已經(jīng)在推廣相關的技術。
在 2021 年 2 月,Adobe、微軟、英特爾、Arm 和 Truepic 等公司與機構聯(lián)合成立了一個名為“內容來源和真實性聯(lián)盟(C2PA)”的項目,以打擊虛假信息,建立一個可驗證圖片真實性和溯源的技術標準。
而驗證的方法也很直接——將照片的拍攝、后期修改等信息用區(qū)塊鏈技術原封不動的保留下來,無論照片怎么修改,都能直接查看。
經(jīng)過認證的真實照片會在右上角多一個“i”的小角標,當你點擊它時,你就可以看到由相機生成的拍攝日期、地點、鏡頭等詳細信息,而如果有人用 Photoshop 等軟件修改過該照片,你還可以回退到照片的原圖,得到完整圖像。
C2PA 的認證手段能夠在一定程度確保嚴肅新聞等領域的照片真實性,但由于成立時間較短,目前只在部分媒體或社交平臺上使用,想要為互聯(lián)網(wǎng)所有內容提供真實性保障還為時過早。
也就是說,在未來的一段時間里,AI 合成照片都有可能會是個社會安全隱患,目前類似 Nivdia StyleGAN2 等圖像合成模型都可以在 Github 等平臺上公開下載得到,這么做真的安全嗎?Farid 認為這需要技術人員平衡利益與風險后慎重考慮。
那么問題來了,文章出現(xiàn)那么多張臉,到底哪些是真人呢?
答案是:除特別標注外,全是假的。
本文來自微信公眾號:愛范兒(ID:ifanr),作者:黃智健