複製鏈接
請複製以下鏈接發送給好友

深度偽造

鎖定
深度偽造技術(Deepfake [2]  ),是被稱作“生成式對抗網絡”(GAN)的機器學習模型將圖片或視頻合併疊加到源圖片或視頻上,藉助神經網絡技術進行大樣本學習,將個人的聲音、面部表情及身體動作拼接合成虛假內容的人工智能技術。
深度偽造最常見方式是AI換臉技術,此外還包括語音模擬、人臉合成、視頻生成等。它的出現使得篡改或生成高度逼真且難以甄別的音視頻內容成為可能,觀察者最終無法通過肉眼明辨真偽。 [1] 
2021年3月18日,國家互聯網信息辦公室、公安部針對未履行安全評估程序的語音社交軟件和涉“深度偽造”技術的應用,指導部分地方網信部門、公安機關依法約談11家企業 [5] 
2024年3月15日,媒體報道多起利用AI配音、AI換臉騙局。業內表示AI還沒有像科幻小説描繪得那樣擁有自我意識,犯罪的淵藪依舊指向了操刀的人。 [7] 
中文名
深度偽造
外文名
Deepfake
適用領域
人工智能

深度偽造詞語來源

“深度偽造”(Deepfake)是英文“deep learning”(深度學習)和“fake”(偽造)的混合詞,即利用深度學習算法,實現音視頻的模擬和偽造 [4] 

深度偽造發展歷史

在1994年上映的影片《阿甘正傳》中,製作者就用了原始的“換臉”技術,將肯尼迪的影像填充到電影中,並調節他的表情和肢體語言 [1] 
2018年4月,一段主角為美國前總統奧巴馬的視頻,在推特上獲得200多萬次的播放和5萬多個點贊。奧巴馬在視頻中説“特朗普是個徹頭徹尾的笨蛋”。但實際上這段話並非出自奧巴馬,而是美國一位導演公開發表的言論。
2018年5月,美國總統特朗普宣佈中止全球氣候變化協議,隨後被比利時某政黨利用“深度偽造”技術篡改,做出一個“特朗普宣告比利時政府也應退出”的假視頻,引起比利時民眾的公憤 [4] 
2021年3月,有犯罪分子利用“深度偽造”技術,電腦合成某公司CEO的聲音,成功詐騙22萬歐元 [6] 
2024年3月15日,媒體報道多起利用AI配音、AI換臉騙局。業內表示AI還沒有像科幻小説描繪得那樣擁有自我意識,犯罪的淵藪依舊指向了操刀的人。 [7] 

深度偽造分類

美國出現的“深度偽造”大致有三類:一是換臉,在美國以色情網站、成人電影等為主要應用者;二是對嘴型,即表情遷移,多應用於惡搞官員、影視明星為主的視頻;三是動作遷移,將一個人的肢體動作移植到另一個人的身上,也可形象比喻為“主人與木偶”的關係。“比如將來抖音上的網紅可能是假的,他所説的話,做的事全是被‘深度偽造’技術所操控。” [4] 

深度偽造應用

截至2019年9月,這一技術在我國尚沒有被濫用,但在美國曾多次出現針對官員的偽造惡搞視頻 [4] 

深度偽造正向應用

在教育上,虛擬教師讓數字教學更具互動性和趣味性,合成的歷史人物講解視頻讓受眾更有代入感;在娛樂上,深度偽造技術可以讓電影、紀錄片等藝術創作突破時空限制,以更真實的方式呈現,可以創造虛擬主播來播報新聞,更可以創造極具親和力的虛擬偶像。
此外還有在藝術、社交、虛擬現實、醫療等領域的應用。 [1] 

深度偽造風險應用

1、威脅國家安全和公共安全。不法分子藉助深度偽造技術,可能散佈虛假視頻,激化社會矛盾,煽動暴力和恐怖行動,也可能用於干擾競爭國家的情報機構,甚至因此設定限制其行動範圍的條件。
2、給個人和企業帶來損害。視頻換臉技術門檻降低,普通人也能製作換臉視頻,別有用心之人利用深度偽造技術可以輕易綁架或盜用他人身份,甚至可以説深度偽造技術有可能成為實施色情報復、商業詆譭、敲詐勒索、網絡攻擊和犯罪等非法行為的新工具。 [1] 
3、引發社會憂慮和信任危機。專家認為,“深度偽造”會加深公眾對政府的不信任感。隨着公眾意識到“深度偽造”的危害,他們會對一般的真實視頻產生懷疑,更容易把真實視頻當作虛假視頻,迷失在真假信息之中,對官方澄清也會持有懷疑態度。 [4] 

深度偽造防範建議

AI換臉難以肉眼區分,防範利用AI人工智能等新型手段的詐騙,牢記以下幾點:
1、多重驗證,確認身份,比如在涉及錢款時,儘量通過電話詢問具體信息,確認對方是否為本人;
2、保護信息,避免誘惑。對於不明平台發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”;
3、相互提示,共同預防做好宣傳防範工作。尤其是提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。 [3] 
參考資料