Deep Fake,又稱“深度偽造”,是Deep learning(深度學(xué)習(xí))和Fake(偽造)的組合,通常是指利用深度學(xué)習(xí)算法,實現(xiàn)圖像、音頻、視頻的模擬和偽造。
2018年,美國在當(dāng)年發(fā)布的《惡意偽造禁令法案》中將“Deep Fake”定義為“以某種方式使合理的觀察者錯誤地將其視為個人真實言語或行為的真實記錄的方式創(chuàng)建或更改的視聽記錄”,其中“視聽記錄”即指圖像、視頻和語音等數(shù)字內(nèi)容。
日常生活中,人們最常接觸到的有關(guān)“深度偽造”的應(yīng)用用例包括:Al換臉、語音模擬、人臉合成、視頻生成等。
為什么我們要警惕、防范“深度偽造”?
首先,通過“深度偽造”技術(shù)實施的偽造太過于“仿真”,極具混淆性。而偽造效果太過于“逼真”,可能會讓犯罪分子的欺詐成功率達到100%。深度偽造效果“逼真”的原因,主要在于其算法的的先進性。
其次,通過“深度偽造”技術(shù)實施的偽造太過于“多樣化”,且造假成本較低,難以監(jiān)測。
使用先進算法生成一套偽造的、用于詐騙的文本、圖片、音頻或視頻,所需要花費的時間成本最短不過數(shù)秒,最長不過若干分鐘的時間,操作極其便捷,且可以不斷地生成相似但又不同的系列文本、圖片、音頻或視頻。
因此,不法分子僅需要極低的時間成本和花費,便可以籌備大量虛假圖片或視頻作為欺詐工具,然后試圖在各種身份驗證或身份識別的環(huán)節(jié)中重復(fù)測試,尋求“檢測逃逸”,傳統(tǒng)基于規(guī)則或普通算法的身份驗證工具其實難以應(yīng)對。
“深度偽造”的工作原理
以深度偽造圖像為例,目前最常用的技術(shù)是一種叫做生成對抗網(wǎng)絡(luò)(Generative Adversarial Network)的算法。
這個深度學(xué)習(xí)算法的模型,是由兩個神經(jīng)網(wǎng)絡(luò)組成,一個神經(jīng)網(wǎng)絡(luò)的作用是“生成”,另一個神經(jīng)網(wǎng)絡(luò)的作用是“判定”。
簡要理解,負(fù)責(zé)“判定”的神經(jīng)網(wǎng)絡(luò)要判斷“生成”神經(jīng)網(wǎng)絡(luò)里圖像的真實性,兩個神經(jīng)網(wǎng)絡(luò)之間是一種對抗關(guān)系,不斷地在進行著“真假博弈”。因此,在這兩種神經(jīng)網(wǎng)絡(luò)作用下,最后成功“勝出”而生成的圖像,可想而知質(zhì)量很高,且可以實現(xiàn)非常多的變化。
此外,這些用于“深度偽造”的深度學(xué)習(xí)算法,他們對圖像的分析和捕捉,是細(xì)化到了圖像的內(nèi)容、結(jié)構(gòu)、紋理、顏色、光照等各種元素。因為,這些偽造的或虛構(gòu)的圖像或視頻,圖像精細(xì)度也可以達到騙過人類視覺系統(tǒng)辨別能力的程度,從而讓人們認(rèn)為這是一張從現(xiàn)實里使用相機抓拍的“真圖片”——人們無法通過肉眼明辨真?zhèn)巍?/p>
不過,伴隨技術(shù)發(fā)展和現(xiàn)實世界里視頻內(nèi)容的大量應(yīng)用,“深度偽造”也不再僅依靠生成對抗網(wǎng)絡(luò)算法,在深度偽造視頻內(nèi)容時,使用自動編碼器或多個自動編碼器來創(chuàng)建深度偽造的內(nèi)容,這種手段也非常常見。
“深度偽造”應(yīng)用在人物圖像領(lǐng)域,常用的“偽造”方法有四類:重現(xiàn)、替換、編輯和合成。
重現(xiàn):對目標(biāo)人物表情、身體、五官、頭部等運動的圖像的重新生成。
替換:面部轉(zhuǎn)移,面部交換等。
編輯:通過添加、更改或刪除目標(biāo)身份的屬性,包括服裝、毛發(fā)、年齡、身材,甚至種族、膚色等。
合成:在沒有原生圖像的基礎(chǔ)上由人工智能、虛擬現(xiàn)實等相關(guān)技術(shù)創(chuàng)建圖像或角色,可以理解成是一種“純虛擬”的偽造。
“深度偽造”的防范現(xiàn)狀
根據(jù)2021年的韓國成均館大學(xué)的研究,Microsoft的Azure認(rèn)知服務(wù)對高達78%的“深度偽造”視頻均無法辨認(rèn)。
近年來,利用“深度偽造”技術(shù)進行犯罪的頻率飆升。比如,在2022年到2023年第一季度,美國此類犯罪事件數(shù)量增加了一倍多。
犯罪分子主要是利用“深度偽造”技術(shù)偽造的圖像、音頻或視頻向銀行、企業(yè)或個人實施身份欺詐,從而不當(dāng)?shù)美?/p>
比如,2020年,犯罪分子利用“深度偽造”的合成語音,欺騙一名香港銀行經(jīng)理向其團伙轉(zhuǎn)賬3500萬美元,而這名受欺騙的銀行經(jīng)理一度認(rèn)為自己正在與一名熟悉的公司董事溝通。
還有不少行業(yè)人士,表達了對于“深度偽造”可能會被用于干預(yù)選舉、干預(yù)政府治理、干預(yù)國家形象等問題上的擔(dān)憂。
2022年,有人發(fā)布了一段偽造烏克蘭總統(tǒng)弗拉基米爾·澤連斯基的視頻,要求他的部隊投降。
2023年,網(wǎng)上瘋傳著一系列“特朗普被逮捕”的新聞圖片,而這套新聞圖片全部是利用人工智能技術(shù)偽造生成的。
網(wǎng)絡(luò)犯罪分子常使用“深度偽造”的文本、圖像、音頻或視頻進行如下欺詐:
假冒知名人士:偽造視頻或錄音,使其看起來像是知名人士正在說或做他們從未說過或做過的事情,傳播錯誤信息,損害聲譽,甚至進行財務(wù)欺詐。
竊取個人信息:制作逼真的假身份證或護照等證件來竊取他人資產(chǎn)或進一步實施身份欺詐。
假扮合法組織騙取信任:通過偽造的逼真視頻或錄音,讓不知情的用戶誤以為是在與合法的組織、政府人員或企業(yè)人士在進行交流,從而被不法分子利用。
利用虛擬或合成身份假冒他人或注冊新賬戶:犯罪分子將各種或真實或虛假的身份元素組合在一起,創(chuàng)造出一個現(xiàn)實中并不存在的個人,再使用這個虛假個人在各類平臺注冊賬戶,同時關(guān)聯(lián)到現(xiàn)實中的各類活動,以便進一步實施詐騙行為。這種詐騙方式潛在危險性極大,甚至可能實現(xiàn)騙取養(yǎng)老金、騙取人壽保險等詐騙行為。
存在大量公共人物曝光、需要通過身份核驗并進行遠程操作的行業(yè)都容易受到合成欺詐和深度造假的影響,比如泛娛樂行業(yè)、新聞業(yè)、數(shù)字金融行業(yè)等。
傳統(tǒng)金融服務(wù)行業(yè)也是“重風(fēng)險區(qū)”,尤其是保險行業(yè),極有可能成為遭遇“深度偽造”欺詐風(fēng)險最高的行業(yè),金融部門迫切需要提高警惕,采取對策,保護客戶和員工不成為此類操縱策略的受害者。
如何應(yīng)對“深度偽造”?
首先,面臨高欺詐風(fēng)險威脅的企業(yè)或機構(gòu),在用戶注冊、登錄環(huán)節(jié)需要部署數(shù)字身份驗證解決方案,防止不法分子利用深度偽造的虛擬智能內(nèi)容進行欺詐犯罪。
其次,不僅要對在特定場景下利用技術(shù)深度偽造的內(nèi)容進行的欺詐進行防范,還需要對曾經(jīng)多次上傳、使用過虛假人像圖片或視頻進行身份驗證的賬號進行標(biāo)注,以綜合判斷某個用戶賬戶的欺詐風(fēng)險指數(shù)。
再次,在用戶自主上傳內(nèi)容較多的在線服務(wù)平臺(比如直播、社交等平臺),還需要建立一定的人工審核機制,整體防范風(fēng)險。
通過技術(shù)手段檢測識別“深度偽造”內(nèi)容的常見方法包括:
圖像特征檢測:利用圖像的特征,尋找特定篡改證據(jù),比如局部噪音分析、圖像質(zhì)量評估、光照角度分析等,檢測是否有異于正常拍攝圖像元數(shù)據(jù)的“差異”。
圖像構(gòu)成真實性比對:利用人工智能技術(shù)深度偽造的圖像或視頻,在圖像細(xì)節(jié)上,還是會出現(xiàn)一些與基于實物正常拍攝的圖像之間的明顯偏差,尤其在一些小的細(xì)節(jié)處,但非常容易被忽視,且可能人類的肉眼無法直接辨別。
比如,一副深度偽造的人臉圖像,圖像上人類眼鏡瞳孔顏色可能會丟失光線反射的細(xì)節(jié)或者兩只瞳孔出現(xiàn)色差;臉部陰影色差不符合正常光影形成分布;牙齒形態(tài)模糊或色彩、形狀太過于統(tǒng)一。在全身人像上,目前深度偽造圖像對人類手指和皮膚的“偽造”、頭臉比例,常常會出現(xiàn)明顯異于正常人像的“偏差”,這些都可以用以分析識別圖像是否存在“深度偽造”。
而對于動態(tài)視頻的檢測,如果是深度偽造的人像動態(tài)視頻,可能會忽略或沒有數(shù)據(jù)源進行充分的人臉輪廓數(shù)據(jù)訓(xùn)練,那么,通過檢測、觀察動態(tài)人像在一些指定角度扭動時圖像特征或構(gòu)成的異常變化,可以發(fā)現(xiàn)是否存在偽造。
在日常應(yīng)用中,金融機構(gòu)或相關(guān)企業(yè)可以在執(zhí)行KYC流程、用戶注冊或登錄賬戶的過程中,加入數(shù)字身份驗證解決方案常用的活體檢測功能,通過實施識別、驗證用戶眨眼、扭頭等動態(tài)影像,分辨是否為真實用戶,防范深度偽造創(chuàng)建的虛假人像欺詐。