本文轉自【工信部反詐專班】;
近日,一名擁有百萬粉絲的女網紅爆出了一起「AI換臉」事件。這位女性網紅表示,她的視頻評論區突然湧現了許多人,聲稱已經看過她的“視頻”,然而她從未發布過此類視頻。
她疑惑地點開了這個視頻,結果發現裡面的女生和她長得一模一樣,但做著一些難以形容的動作,讓她感到非常憤怒和無助。她隨即意識到可能是她的臉被人工智慧(AI)盜用了。
AI技術發展迅速,最近爆火的AI換臉,大家不知道玩過沒有。
只需要提供一張有臉的照片,就可以把自己置換成影片、電視劇中的男(女)主角,而且擬真度非常高,毫無違和感。
以下是用其他措詞重寫的句子: - 這就是把鹿晗的臉放進劉亦菲所飾演的「小龍女」角色中所顯現的效果。 - 下面這個結果是將鹿晗的臉放入劉亦菲飾演的「小龍女」角色中得出的。 - 把鹿晗的臉放在劉亦菲飾演的「小龍女」角色中,這就是下面這個效果。 - 下面這個效果表現出的是將鹿晗的臉孔嵌入劉亦菲扮演的「小龍女」角色的結果。 - 這是將鹿晗的臉植入劉亦菲所扮演的「小龍女」角色中所得到的下列效果。如果不是事先看過《神鵰俠情侶》,還以為是本人呢。
AI詐騙常用手法
第一種: 聲音合成
騙子透過騷擾電話錄音等來提取某人聲音,取得素材後進行聲音合成,從而可以用偽造的聲音騙過對方。
案例
某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元,並將轉帳資訊以郵件形式發送,轉款理由是避免繳納滯納金。小王被騙後才意識到,因為老闆語音很像,他竟相信並在1小時內轉帳完成。
第二種:AI換臉
人臉效果更容易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再透過視訊方式進行資訊確認,真是防不勝防!
首先,騙子會分析公眾在網路上發布的不同類型的信息,透過AI技術來篩選針對實施騙術所需的目標人群。在視訊通話中利用AI換臉,騙取信任。
案例
近日,小李的大學同學透過QQ跟她借錢。小李接到對方四、五秒的視訊電話,確認通話人就是本人後,毫不猶豫地轉帳了3000元。她感覺到異樣後再次撥通對方電話,結果發現同學的帳號被偷了,於是報了案。警方判斷,那段影片很有可能是被人換臉了。
第三種:轉發微信語音
微信語音居然也能轉發,這操作簡直了!騙子在盜取微訊號後,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
儘管微信沒有語音轉發功能,但他們透過提取語音檔案或安裝非官方版本(外掛程式),實現語音轉發。
第四種:透過AI技術篩選受騙人群
騙子不是漫無目的地全面撒網,而是別有用心地鎖定特定物件。他們會根據所要實施的騙術對人群進行篩選,從而選出目標對象。
舉個例子:當進行金融詐騙時,經常蒐集投資資訊的小夥伴會成為他們潛在的目標。
運用AI技術,再加上套路和劇本的演繹,這樣的詐騙手段,小夥伴們能hold住嗎?
如何防範?
HOME
#面對利用AI人工智慧等新型手段的詐騙,我們要牢記以下幾點:
多重驗證,確認身分
#01
在涉及轉帳交易等行為時,小夥伴們要格外留意,可以透過電話、視訊等方式確認對方是否是本人。
當無法確認對方身分時,可以設定到帳時間為“2小時內到帳”或“24小時內到帳”,以便留出處理時間。盡量透過電話詢問具體訊息,確認對方是否為本人。
即使對方使用人工智慧技術欺詐,我們仍然可以透過問一些問題來進一步確定身份。建議大家使用銀行轉帳而非透過微信等社交軟體進行轉賬,以降低風險。一方面有利於核實對方身份,另一方面也有助於跟進轉帳資訊。
保護訊息,避免誘惑
#02
#加強個人資訊保護意識,小夥伴們要謹防各種資訊洩露,不管是在網路上或社群軟體上,盡量避免過度暴露自己的資訊。
對於不明平台發出的廣告、中獎、交友等連結提高警惕,不隨意填寫個人訊息,以免被騙子「精準圍獵」。
相互提示,共同預防
#03
#這些高科技手段的詐騙方式,迷惑了許多小夥伴。警察蜀黎也提示各位要多多提醒、告誡身邊的親人、朋友提高安全意識和應對高科技詐騙的能力,共同預防受騙。
做好家中老人的宣傳防範工作。對老人家來說,接到電話或簡訊後應立即放下電話,再次撥打家人電話確認,以免貿然轉帳。
拒絕誘惑,提高警覺
#04
#小夥伴們要學會拒絕誘惑,提高警覺。避免佔便宜心理,警惕陌生人無端「獻殷勤」。
如果事先不知道騙子的這些伎倆,被騙的可能性非常大。還是那句話:
你目前還沒被騙,並不是因為你多聰明,也不是因為你沒錢,而是適合你的「劇本」還在路上。
以上是AI技術改變詐騙,新騙局來襲,詐騙成功率接近100%的詳細內容。更多資訊請關注PHP中文網其他相關文章!