在世界上最受歡迎的社群媒體平台之一TikTok上,源源不絕的Deepfake影片正在冒出來。這些影片對拍攝對象的臉部或身體進行了數位化改造,讓用戶完全變成了另一個人。當然啦,大家通常都是換名人的臉。 就比如,TikTok上的這位@deeptomcriuse,已經發布了數十個假冒湯姆·克魯斯的deepfake視頻,並且有了360萬粉絲。
好傢伙,這相似度,是湯姆克魯斯本人看了也懵逼的程度。
在另一個Deepfake影片中,一個fake的祖克柏承認了自己對於竊取用戶大數據的野心。
「想像一下:當一個人手握數十億人的數據,他就掌握了他們的生活和未來…Spectre讓我知道,誰掌握了數據,誰就掌握了未來。」請記住,以上這些話都不是小札說的。仔細看原版和翻版的視頻,的確真假難辨……
#在這個惡搞視頻中,基努·裡維斯剛剛制止了一場持槍搶劫。
#而這位馬斯克中國分克甚至騙過了馬斯克本尊。
雖然大多時候,Deepfake被網友用來搞怪,但令人擔憂的是,越來越多人在用這門技術進行虛假宣傳、詐欺、抹黑公眾人物。 Deepfake很好地融合了文字、圖像和鏡頭處理。與綠幕和電腦生成圖像相比,它為視覺插入提供了更便宜、更精緻的技術。原本這項技術在誕生的伊始,寄託著創造者的美好願望,例如幫助人們哀悼和懷念逝去的親人。
這麼明顯的惡搞,一般人都不會信。但如果是那種似是而非的影片呢?
2019年,英國保守黨方面疑似在選舉中偽造工黨國會議員Keir Starmer接受電視採訪時口齒不清的影片。
而DeepNude 2.0(現在停用)被用來讓穿著衣服的女性在鏡頭中呈現裸體,經常被用於報復和敲詐。此外,Deepfake也常被用於詐騙。當信賴的朋友或親戚打來視訊電話向你借錢,你大概率會中招。一項研究發現,2020 年使用數位科技進行的詐騙使美國金融機構損失了200億美元。
DeepFake的創作者強調,如果想讓這些換臉影片看起來更加真實,就要花費大量的時間和精力。
然而DeepFake也確實在變得越來越容易。隨著更多DeepFake應用程式的開發,在未來,即使是技術水平不高的人也能越來越容易地製作出看起來很逼真的DeepFake影片。
#只要想想在過去的十年裡,ps是怎麼蓬勃發展的,就大概能預測DeepFake未來的發展了。而立法、監管和檢測軟體正努力跟上DeepFake的蓬勃發展。 2019年,Facebook因未能刪除政治家Nancy Pelosi的合成影片而受到批評,因為它不符合其對DeepFake的定義。 2020年,Twitter和TikTok禁止分享可能會欺騙、迷惑或傷害他人的合成影片(除非標清楚是DeepFake)。而YouTube則是下架了所有與2020年美國聯邦選舉有關的DeepFake影片。
但是,即使這些政策有意引導,平台管理員也很難及時處理每一條上報的影片。在澳大利亞,新南威爾斯州的Ashurst公司的律師表示,現有的版權和相關法律可能無法保護澳洲人免受DeepFake的影響。雖然國外已經開始嘗試制定法律規整這個領域,但這些法律大多都集中在政治傳播上。例如,加州規定,在選舉期間張貼或傳播經過數位處理的候選人內容是非法的。但不從政的人並不受這條法律的保護。而最好的補救措施之一,就是讓使用者盡量掌握辨別的技巧。
通常情況下,能讓DeepFake露餡的第一個跡像是,有些東西看著似乎不太對勁。
如果是這樣,就要更仔細地觀察被拍者的臉,想一想:臉部是否太光滑,或有不尋常的顴骨陰影?
眼瞼和嘴巴的動作看起來不連貫或不自然?
要知道,目前的深度造假技術很難保持頭髮(尤其是臉部毛髮)的原始外觀。你可以在網路上搜尋該影片或影片中人物的關鍵字,因為許多可疑的DeepFake影片已經被揭穿了。試著判斷一下來源的可靠性——它看起來是真的嗎?如果影片發佈在社群媒體平台上,那麼發文者的帳號是否經過了驗證?你還可以對播放的視頻進行截圖,並進行谷歌反向圖片搜索,檢查視頻的原始版本是否存在,將其與可疑的版本進行對比。最後,如果你確實發現了一個DeepFake的視頻,一定要記得點舉報。
以上是DeepFake捏臉真假難辨,湯姆克魯斯比本人還像本人!的詳細內容。更多資訊請關注PHP中文網其他相關文章!