在 Deepfake 的世界,真真假假,有時的確難以區分。
AI 演算法“Deepfake”可以產生各種有關人物的逼真圖像和視頻,在換臉領域已經有了廣泛的應用。不過,AI 換臉技術引發的爭議不斷,例如利用 Deepfake 製作成人影片等,造成了人們極大困擾。
近日,根據外媒pcmag 報道,FBI 表示有詐騙者一直使用Deepfake 技術在遠端工作的面試中冒充求職者,試圖謀得IT 公司的工作機會,以訪問它們的客戶或財務資料、企業IT 資料庫和/ 或專有資訊。
有些公司透露,有些申請者的個人識別資訊甚至屬於另外一個人。
換臉前後的人物臉部。圖表來源:Facebook/Meta
事情是這樣的。在當地時間 6 月 28 日,FBI 網路犯罪投訴中心(IC3)在一次公開諮詢中表示,最近有關被冒充求職的投訴案件數量增加。詐騙者一直利用 Deepfake 技術以及從受害者那裡盜取的個人識別訊息,騙過雇主僱用他們進行遠端或居家辦公工作。
這些工作涉及 IT 和電腦程式設計、資料庫以及軟體相關的職位。
圖來源:https://www.ic3.gov/Media/Y2022/PSA220628
#以往,Deepfake 使用AI 賦能的程式來創造逼真但虛假的人物。在視訊方面,該技術可以將名人的臉復刻到其他人的身上;在音頻方面,該技術可以克隆一個人的聲音,操縱它說出任何你想說的話。
然而此次,FBI 的諮詢顯示,Deepfake 技術也在助長身分盜用不法行徑。在潛在申請者的線上面試中,詐騙者使用了語音欺騙或聲音偽造技術。詐騙者一直使用這些 Deepfake 技術申請 IT 公司的遠距或居家辦公室職位。
雖然 FBI 沒有說清楚這些詐騙者的最終目的是什麼,但指出涉及的職位包括存取客戶 PII(個人識別資訊)、財務資料、公司 IT 資料庫和 / 或專有資訊。這類資訊可以幫助詐騙者從公司中竊取有價值的資料並實施其他身分詐欺計劃。
圖表來源:https://www.bangkokpost.com/
##不過,好消息是,雇主有方法來檢測Deepfake。雖然詐騙者一直與潛在雇主進行視訊面試,但 FBI 指出,當詐騙者說話時,基於 AI 的技術仍顯示出缺陷。
例如,在鏡頭前面試者的動作和嘴唇運動與他們說話的聲音並不完全協調。有時,咳嗽、打噴嚏或其他聽覺行為與視覺呈現的內容不一致。以上是你的遠距員工真是他自己嗎? FBI揭露求職者濫用Deepfake的詳細內容。更多資訊請關注PHP中文網其他相關文章!