首頁 >科技週邊 >人工智慧 >大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權

大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權

PHPz
PHPz轉載
2023-05-27 14:05:471626瀏覽

在過去的 10 年裡,大型科技公司在許多技術上變得非常擅長:語言、預測、個人化、存檔、文字解析和資料處理。但它們在捕捉、標記和刪除有害內容方面仍然十分糟糕。對於在美國傳播的選舉和疫苗陰謀論,只需回顧過去兩年的事件,就能了解它們對現實世界造成的傷害。

這種差異引發了一些問題。為什麼科技公司在內容審核上沒有改進?他們可以被迫這麼做嗎?人工智慧的新進展會提高我們捕捉不良資訊的能力嗎?

大多數情況下,當科技公司被美國國會要求對傳播仇恨和錯誤訊息做出解釋時,它們往往會把自己失敗的原因歸咎於語言本身的複雜性。高層表示,在不同語言和背景下理解和防止上下文相關的仇恨言論是一項難度很高的任務。

馬克‧祖克柏(Mark Zuckerberg)最喜歡說的一句話是,科技公司不應該承擔解決世界上所有政治問題的責任。

大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權 (資料來源:STEPHANIE ARNETT/MITTR | GETTY IMAGES)

大多數公司目前同時使用技術和人工內容審核員,後者的工作被低估了,這反映在他們微薄的薪酬上。

例如,在 Facebook 上刪除的所有內容中,人工智慧目前負責了 97%。

然而,史丹佛網路觀測站的研究經理蕾妮·迪雷斯塔(Renee DiResta)說,人工智慧並不擅長解釋細微差別和背景,所以它不可能完全取代人類內容審查員,即使人類也不總是擅長解釋這些事情。

由於自動內容審核系統通常是根據英文資料進行訓練的,因此文化背景和語言也會帶來挑戰,難以有效處理其他語言的內容。

哈尼·法里德教授於加州大學柏克萊分校資訊學院提供了一個更為明顯的解釋。據法里德所言,由於內容審核不符合科技公司的經濟利益,因此它沒有跟上風險的發展。這一切都與貪婪有關。別再假裝這不是錢的問題了。 ”

由於聯邦監管的缺失,網路暴力的受害者很難要求平台承擔經濟責任。

內容審核似乎是科技公司和不良行為者之間一場永無止境的戰爭。當科技公司推出內容監管規則時,不良行為者通常會使用表情符號或故意拼字錯誤來避免被偵測。然後這些公司試圖堵住漏洞,人們再尋找新的漏洞,如此循環。

大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權

現在,大型語言模型來了...

現在的處境已經很難了。隨著生成式人工智慧和ChatGPT等大型語言模型的出現,情況可能會更加惡劣。生成式技術也有問題——例如,它傾向於自信地編造一些事情,並把它們作為事實呈現出來——但有一點是明確的:人工智慧在語言方面越來​​越強大了,非常強大。

雖然迪雷斯塔和法里德都很謹慎,但他們認為現在還為時過早去做出對事情如何發展的判斷。儘管許多像 GPT-4 和 Bard 這樣的大模型都有內建的內容審核過濾器,但它們仍然可能產生有毒的輸出,例如仇恨言論或如何製造炸彈的指令。

生成式人工智慧可使壞人在更大規模和更快速度上進行虛假資訊欺騙活動。考慮到人工智慧生成內容的識別和標記方法嚴重不足,這個情況非常可怕。

另一方面,最新的大型語言模型在文字解釋方面比之前的人工智慧系統要表現得更出色。理論上,它們可以用來促進自動內容審核的發展。

科技公司需要投資重新設計大型語言模型,以實現這一特定目標。儘管微軟等公司已開始研究此事,但尚未出現引人注目的活動。

法里德表示:「儘管我們已經看到了許多技術進步,但我對內容審核方面的任何改進都持懷疑態度。」

儘管大型語言模型發展迅速,但它們仍然面臨上下文理解方面的挑戰,這可能導致它們無法像人類審核員那樣準確地理解帖子和圖像之間的微小差別。跨文化的可擴展性和特殊性也帶來了問題。 「你會針對特定類型的小眾市場部署一種模型嗎?是按國家劃分的嗎?是按社區來做的嗎?這不是一個放之四海而皆準的問題,」迪雷斯塔說。

大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權

基於新技術的新工具

生成式人工智慧最終對線上資訊領域是有害還是有益,可能在很大程度上取決於科技公司能否拿出好的、被廣泛採用的工具來告訴我們內容是否是由人工智慧產生的。

迪雷斯塔告訴我說,檢測合成介質可能是需要優先考慮的技術挑戰,因為這很有挑戰性。這包括像數位浮水印這樣的方法,它指的是嵌入一段程式碼,作為一種永久性的標記,表明附加的內容是由人工智慧製作的。用於檢測人工智慧生成或操縱的貼文的自動化工具很有吸引力,因為與浮水印不同,它們不需要人工智慧生成內容的創建者主動標記。換句話說,目前嘗試辨識機器生成內容的工具的表現還不夠出色。

一些公司甚至提出了使用數學來安全地記錄資訊的加密簽名,例如一段內容是如何產生的,但這將依賴像水印這樣的自願披露技術。

歐盟上週剛提出的最新版《人工智慧法案》(AI Act)要求,使用生成式人工智慧的公司要在內容確實是由機器生成時通知用戶。在未來幾個月,我們可能會聽到更多有關新興工具的消息,因為對人工智慧生成內容透明度的需求正在增加。

支援:Ren

原文:

https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/

以上是大模型時代如何捕捉不良內容?歐盟法案要求AI公司確保用戶知情權的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除