樂天集團中國産業園區品牌連鎖運營商

deepfake:引發AI換臉技術争議

發布時間:2019-11-16 發布者:亞時财經

deepfake聽上去或許很陌生,但如果說到它的應用——“AI換臉”,想必大家都有所了解。AI換臉技術十分弱爆,在國内外都掀起了一股浪潮。各種APP或應用讓用戶可以輕松用自己的臉去替換影視作品裏的明星人物,從而滿足自己和明星同框的願望。


(圖源:網絡) 


這項腦洞大開的技術在2017年由Reddit網站用戶“deepfakes”提出并開源,這種源自人工智能生成對抗網絡(GAN,generative adversarial network)的僞造技術,可以實現用另一張人臉圖片替換掉原始視頻中的原始人像。基于GAN算法的博弈優化原理,最終生成逼真度極高的僞造視頻,目前已可以以假亂真。衍生出FakeApp等視頻合成工具和一系列僞造影片,掀起一股“換臉”熱潮。

 

雖然deepfake技術應用在影視文化行業的想象空間極大,但其誕生之初就伴随着肖像權、版權和倫理層面的紛争。

 

deepfake的濫用

 

近來的一項研究表明,目前網上有14678個DeepFake視頻,其中96%是色情視頻。大部分都是著名女演員的臉,被轉移到色情明星的身體上。對于普通女性而言,deepfake技術讓造假色情視頻變得十分容易,基于報複或其他目的的色情視頻,可能讓女性面臨更高的名譽風險而難以自辯。


(圖源:網絡) 


同時,技術的革新也讓“欺詐行業”不斷改頭換面。基于該技術的合成人像、合成語音乃至合成筆迹,讓欺詐活動變得更加隐秘而難以偵查和防衛。據深科技報道,今年3月,犯罪分子成功模仿了一家英國能源公司的德國母公司CEO的聲音,欺騙了多位同事和合作夥伴,一天内詐騙了220,000歐元(約合173萬元人民币);新智元同樣報道了一起相似案例,今年6月,間諜使用AI生成了一個并不存在的個像和資料,在職場社交平台LinkedIn上欺騙了包括政治專家和政府内部人士的衆多聯系人。

 

除此之外,deepfake的潛在效應還将蔓延到大衆的信息獲取和社會信任層面。外交政策研究所研究員Clint Watts表示,“如果一個消費者不能從虛構中辨别事實,那麽他們要麽相信一切,要麽什麽都不相信。”


應對方法

 

紐約州立大學教授Siwei Lyu和學生發現,使用AI技術生成的假臉極少甚至不會眨眼,因爲它們都是使用睜眼的照片進行訓練的。據此,美國國防部研究機構DAPRA研發出了首款「反變臉」的AI刑偵檢測工具。但他們同時也表示,随着鑒别技術的提升,假視頻的質量也會進一步提高。而且“打假”與“造假”的規模不成比例,關于“打假”的研究寥寥無幾。因此他們覺得這項AI刑偵技術可能很快就沒用了。


 

AI換臉幾乎不能眨眼 (圖源:網絡)


除了AI對抗AI以外,還有一些其他途徑可以應對。一些企業選擇合理釋放技術成果,比如隻公布簡化版本而保留一些核心内容,這樣可以避免技術被人惡意利用。還可以将自動檢測工具與人工審查相結合,更好地對相關内容進行審查取證。立法監管也是一個正在嘗試的應對方法,從法律層面約束這類技術,防止濫用。

 

還可以從用戶群體方面來入手,提高人們的安全意識與權益意識,防止自身利益受到損害或損害他人利益。就像之前火熱的中國換臉APP“ZAO”,一經推出便在朋友圈掀起換臉狂潮,大家紛紛在各種社交平台分享自己的換臉視頻。然而,有法律專業人士提出,該産品涉及侵犯著作權、肖像權、隐私權等諸多法律問題,并指出該APP相關條例中的“霸王條款”:用戶隻要同意條款,就意味着允許ZAO使用用戶的肖像及相關内容,間接讓用戶同意ZAO收集自己的肖像信息。這種情況一旦ZAO出現數據庫洩露等情況,那用戶的相關利益可能受到極大損失。

 

亞洲時報 綜合

責任編輯:楊志傑

特别聲明:本站轉載或引用之圖文若侵犯了您的合法權益,請與本站聯系,本站将及時更正、删除。版權問題及網站合作,請通過亞時财經郵箱聯系:asiatimescn@sina.com

熱門話題更多>>

推薦文章

更多>>

掃一掃手機閱讀

ATimesCN手機網站