5月10日,日本东京,第7届日本人工智能大会上,参会者在交谈。 图片来源 视觉中国
中青报·中青网见习记者 赵婷婷
平躺在功能性核磁共振机(fMRI)内,美国有线电视新闻网(CNN)记者多尼·奥沙利文几乎听不到机械的嘈杂声。他戴着专用耳机,收听《绿野仙踪》有声书中的片段。同时,一种人工智能模型正在基于他的脑电活动和听取的内容进行预测,以了解他的想法和感知。
最近,得克萨斯大学奥斯汀分校的科学家利用fMRI技术监测了三名受试者在听故事时的大脑活动。他们采用的是GPT-1,这是OpenAI公司的第一款语言模型,其基于大量书籍和网站数据库构建。通过分析这些数据,人工智能可以学习人类说话和思考的方式。
参与这项研究的是得克萨斯大学奥斯汀分校的神经科学和计算机科学助理教授亚历山大·胡特。奥沙利文在体验过程中发现,人工智能在解读人类思想的过程中还有一些局限,比如,他脑海中出现的《绿野仙踪》主人公多萝西沿着黄砖路前行的情景,没有被解读出来。
CNN解释称,人工智能模型先要分析参与者在听到特定单词时的大脑活动,在学到足够多的知识后,才有可能通过监测人类的大脑活动作出预测。这让很多人松了一口气:“人工智能还不能轻易读懂我们的思想。”
“我们不愿意使用‘读心术’这一术语,因为它会引发许多不良联想,并且也缺乏现实性。”。”胡特表示,这项研究的初衷在于“帮助那些无法沟通的人”,比如自闭症、中风患者或因其他原因无法正常说话的群体。或许未来,他们不必进行神经外科手术,也能找到说话的途径。
人工智能的参与可以让更多的年轻人获得交流、学习的机会,这引起了有关伦理和法律问题的讨论:它会用于审讯吗?是否会揭露人们内心深处的秘密?
“每个人的大脑数据都应该受到保护。”得克萨斯大学奥斯汀分校计算机科学博士、此项研究参与者杰瑞·汤认为,“大脑是我们隐私的最后一道防线。”
胡特相信,大脑数据泄露在短期内不会发生。“我们得到的只是人们思考的方向和轮廓,不会看清小心思和细节。”他说。
美国麻省理工学院心理学教授雪莉特克尔告诉美国《纽约时报》,“父母应该告诉孩子,人工智能没有感情和经验,它只是帮助阅读和思考的工具,不要轻易用它代替思考,或是向它泄露自己的想法。”
据CNN报道,针对该技术可能造成的“风险隐患”,OpenAI首席执行官山姆·阿尔特曼针公开回应称,没有“护栏”的人工智能发展可能对世界造成重大伤害,他提议立法者尽快解决此类担忧。
汤对CNN表示,立法者在处理“精神隐私”问题时应该谨慎,确保保护“大脑数据”,以避免该技术被滥用。目前该技术的适用范围很有限,但不要以为这种情况会永远持续下去。重要的是,(人类)不要有虚假的安全感。技术在不断进步,这可能改变我们解码的能力。”
以上是人工智能不应成为读心工具的详细内容。更多信息请关注PHP中文网其他相关文章!