5月10日,日本東京,第7屆日本人工智慧大會上,與會者在交談。圖片來源 視覺中國
中青報·中青網見習記者 趙婷婷
#平躺在功能性核磁共振機(fMRI)內,美國有線電視新聞網(CNN)記者多尼·奧沙利文幾乎聽不到機械的嘈雜聲。他戴著專用耳機,收聽《綠野仙蹤》有聲書中的片段。同時,一種人工智慧模型正在基於他的腦電活動和聆聽的內容進行預測,以了解他的想法和感知。
最近,德州大學奧斯汀分校的科學家利用fMRI技術監測了三名受試者在聽故事時的大腦活動。他們採用的是GPT-1,這是OpenAI公司的第一款語言模型,其基於大量書籍和網站資料庫建構。透過分析這些數據,人工智慧可以學習人類說話和思考的方式。
參與這項研究的是德州大學奧斯汀分校的神經科學和電腦科學助理教授亞歷山大·胡特。奧沙利文在體驗過程中發現,人工智慧在解讀人類思想的過程中還有一些局限,比如,他腦海中出現的《綠野仙蹤》主角多蘿西沿著黃磚路前行的情景,沒有被解讀出來。
CNN解釋稱,人工智慧模型先分析參與者在聽到特定單字時的大腦活動,在學到足夠的知識後,才有可能透過監測人類的大腦活動作出預測。這讓很多人鬆了一口氣:「人工智慧還不能輕易讀懂我們的思想。」
「我們不願意使用『讀心術』這個術語,因為它會引發許多不良聯想,也缺乏現實性。」。 」胡特表示,這項研究的初衷在於“幫助那些無法溝通的人”,例如自閉症、中風患者或因其他原因無法正常說話的群體。或許未來,他們不必進行神經外科手術,也能找到說話的途徑。
人工智慧的參與可以讓更多的年輕人獲得交流、學習的機會,這引起了有關倫理和法律問題的討論:它會用於審訊嗎?是否會揭露人們內心深處的秘密?
「每個人的大腦資料都應該受到保護。」德州大學奧斯汀分校電腦科學博士、此項研究參與者傑瑞·湯認為,「大腦是我們隱私的最後一道防線。」
胡特相信,大腦資料外洩在短期內不會發生。 「我們得到的只是人們思考的方向和輪廓,不會看清小心思和細節。」他說。
美國麻省理工學院心理學教授雪莉特克爾告訴美國《紐約時報》,「父母應該告訴孩子,人工智慧沒有感情和經驗,它只是幫助閱讀和思考的工具,不要輕易用它代替思考,或是向它洩漏自己的想法。」
據CNN報道,針對該技術可能造成的“風險隱患”,OpenAI首席執行官山姆·阿爾特曼針公開回應稱,沒有“護欄”的人工智能發展可能對世界造成重大傷害,他提議立法者盡快解決此類擔憂。
湯對CNN表示,立法者在處理“精神隱私”問題時應該謹慎,確保保護“大腦數據”,以避免該技術被濫用。目前該技術的適用範圍很有限,但不要以為這種情況會永遠持續下去。重要的是,(人類)不要有虛假的安全感。科技不斷進步,這可能改變我們解碼的能力。 ”
以上是人工智慧不應成為讀心工具的詳細內容。更多資訊請關注PHP中文網其他相關文章!