美國在疫情後,許多企業都採用「在家工作」(Work From Home,WFH)模式。美國聯邦調查局(FBI)的犯罪投訴中心表示,他們近期接到許多企業雇主的投訴,在招聘過程中,有求職者盜用他人的身份,並且利用Deepfake技術參加遠端面試。
這些職位涉及資訊技術、電腦程式、資料庫與軟體相關領域,有些求職者企圖利用他人的背景與專長來獲取工作,透過Deepfake技術來偽造視頻。
他們發現,當與求職者進行線上面試時,求職者的動作或嘴唇的開合,與其說話的聲音並不一致,例如當出現打噴嚏或咳嗽的聲音時,畫面並未同步。
當他們對這些求職者進行背調時發現,有些求職者其實在利用他人的身分來謀職。如果僅僅謀職還是小問題,但如果是駭客,一旦他們成功簽約,就能夠成功進入企業內部,接觸到機密資料。
你是不是也很好奇,這軟體這麼好用嗎?
答案是,的確很高級。
Deepfake利用生成對抗網路(GAN)強大的影像生成能力,可以將任意的現有影像和影片組合並疊加到來源影像和影片上,它可以記錄一個人臉部的細節。經過多年的發展,Deepfake技術已經可以進行即時換臉,並且毫無違和感。
不過,在影片時, Deepfakes 很難為臉部動態表情製作高置信度動畫,影片中的要麼從不眨眼,或眨眼過於頻繁或不自然。而且音訊與假人影像也會配合的不夠自然。
所以這種影片持續10秒就會讓人懷疑,面試全程時間會比較長,更容易露出破綻。
科學技術的進步和變革是一把雙面刃。
人工智慧技術雖然為我們提供了大量的便利,但同時也可能帶來的安全、倫理、隱私等一系列問題。
人工智慧發展的本質是透過演算法、算力和數據去解決完全資訊和結構化環境下的確定性問題。在這個資料支撐的時代,人工智慧面臨許多的安全風險,
也就是駭客注入惡意資料來降低AI系統的可靠性和精確度,進而導致人工智慧決策錯誤。在訓練資料裡加入偽裝資料、惡意樣本等,破壞資料的完整性,進而導致訓練的演算法模型決策出現偏差。
這種操作如果用於自動駕駛領域,很可能導致車輛違反交通規則甚至造成交通事故。
逆向攻擊可導致演算法模型內部的資料洩露,現在各種智慧型裝置例如智慧手環、智慧音箱生物特徵識別系統、智慧醫療系統被廣泛的應用,個人資訊擷取被全方位採集。包括人臉、指紋、聲紋、虹膜、心跳、基因等,這些資訊具有唯一性和不變性,一旦洩漏或濫用將產生嚴重後果。
例如曾經曝光的,國內大量門市在不經用戶同意的情況下,採集的大量的人臉照片被洩露,這些人臉照片或多或少已經在黑產上流出,就會存在詐騙或金融安全的風險。
人工智慧不可避免地會引入網路連接,人工智慧技術本身也能夠提升網路攻擊的智慧化水平,進而進行資料智慧竊取和資料勒索攻擊或自動產生大量虛假威脅情報,對分析系統實施攻擊。
那麼主要的攻擊手段則包括:繞過攻擊、推斷攻擊、後門攻擊、模型抽取攻擊、歸屬推斷攻擊木馬攻擊、模型逆轉攻擊、反水印攻擊、重編程攻擊。
我們要清楚的體認到,人工智慧的時代資料安全也面臨了許多新的挑戰。保護資料安全保護演算法安全,對企業來說成為重中之重。
以上是駭客用AI換臉技術應徵 人工智慧安全問題不容忽視的詳細內容。更多資訊請關注PHP中文網其他相關文章!