根據科技日報,生成式人工智慧(AI)橫空出世後,除了可能對部分職業職位有所波及、對現有的版權制度形成新的挑戰外,還能被用於社交媒體上的假訊息活動,既造成了新的危險,也放大了現有的危險,進而危害經濟和社會的穩定。
基於現實情況進行合理預測,AI加持下的假訊息活動可能主要應用於以下4個面向:
①炮製假新聞。
這裡主要針對官媒新聞進行歪曲和篡改,淘汰以往「開局一張圖,剩下全靠編」的落後的內容生產方式,改為設定要求——輸入部分素材——自動生成圖文/影片的全自動化模式。
②.散播謠言。
製造假消息快、自動化大量化傳播擴散快,如果再加上由深諳新媒體、社媒調性機制,且深諳傳播學或新聞學理論的「專業人士」操刀,便能實現「謊言重複一千遍,就會成為真理」的效果。另外,由於謠言還具有極強的噱頭性,天然容易在互聯網傳播中獲得極大的關注度和討論度,與此截然相反的,卻是闢謠不僅要“跑斷腿”,還因為“太正」而沒人看。
③結合生成式AI與社媒特性,推行「垃圾資訊海」戰術。
向全網灌注娛樂新聞、八卦資訊等「奶頭樂」內容,佔據用戶全部視野,以驅除正經新聞和消息,徹底掌握社媒中流通資訊的支配權。透過與娛樂公司展開深度合作,幕後推手能夠在完成既定戰術目標的同時獲得額外的收益。
④利用深度合成技術仿冒帳號,攪亂正常社媒秩序。
爬取機關、企業、機構、社會組織、名人/大V/意見領袖等官方帳號和個人帳號的訊息,包括但不限於圖文、露臉形象、聲音等,憑藉這些語料和素材生成虛假內容,既能為事主招黑,還能挑起事端、攪亂風波、以假亂真。
更關鍵的是,為牟利也好,為達成其別有用心的目的也罷,虛假信息的製造者和傳播者的行為本就非法,自然會無視法律法規、平台規定等束縛,於是便產生了3大難點-審核難、監理難、處罰難。
①審核難。
目前各平台對生成式AI內容的要求,主要可以概括為“上傳者自律”,也就是該用戶主動做出醒目標識,向受眾明示其內容為AI製作,如此規定“防君子不防小人」。正常用戶當然依規行事,不法用戶則完全可以不標、緩標、少標。
②監管難。
在AI應用於內容生成領域之前,眾所周知網路假新聞已經像野草一樣層出不窮,難以根除。對此,傳統的治理方式為大數據篩選 受理舉報相結合,並重點打擊違規帳號、重點標記其關聯帳號,這是堂堂正正的處置之道,無可指摘。可問題就在於不法用戶引入AI後,如果將之前的狀態看成零星的、點狀的野火,那此後需要處理和整治的虛假信息,將變成片的大火,治理所耗費的人力、物力、難度呈指數級上升。
③處罰難。
最終,懲罰有兩個問題,一是配套法令不夠完備,二是由於隱密性而難以抓取的問題。不過,不久前關於反網暴的適用法律條文已面向社會蒐集意見,相信很快就能具體落地。預期隨著AI產生假訊息治理工作的推進,相關的法治建設也將緊隨其後。
阿知曾多次在生成式AI的問題中提及,AI與以往歷史上出現的新技術沒有本質不同,無關對錯和善惡,關鍵是要看誰來用、怎麼用。其作為網路產業新引擎、金融市場的新蓄水池作用當然毋庸置疑,但一味地、片面地強調其技術優越性多為投機主義者所為,圖利而已。我們必須客觀且全面地看待生成式AI這項革新性技術,並採取預防措施,以避免其濫用所帶來的風險。
以上是警惕! AI或致假訊息氾濫的詳細內容。更多資訊請關注PHP中文網其他相關文章!