神经网络之父Geoffrey Hinton离职谷歌,直言对毕生工作感到后悔。
现在看来,他对AI的害怕,不是没有道理。
因为,一种类ChatGPT模型已经学会了读心术,准确率高达82%!
来自德克萨斯大学奥斯汀分校的研究者开发了一种基于GPT的语言解码器。
它能通过非侵入性的MRI/fMRI收集大脑活动信息,并将思维转化为语言文字。
论文地址:https://www.nature.com/articles/s41593-023-01304-9
令人震惊的是,当你在看皮克斯无声电影时,大脑解码器都能读出你的想法。
这个类ChatGPT模型,以前所未有的准确率解码人类思想,不仅开启了大脑成像的新潜力,并引发了人们对隐私的担忧。
研究一出,在网上掀起了轩然大波。网友惊呼,太恐怖了。
我们离真正的思想警察更近了一步。
GPT读心,准确率高达82%
那么,这个恐怖的大脑解码器是怎么实现「读心」的?
这里,不得不提功能性磁共振成像(fMRI)技术,它能通过监测大脑皮层不同部位的血氧水平得到大脑的动态变化图像。
因此只需分析功能磁共振成像数据,就可以以非侵入性的方式,将参与者大脑中所想的故事甚至图像用语言描述出来。
脑部活动就像是加密过的信号,而经过预训练的大型语言模型提供了破译的途径。
在此,研究人员基于GPT-1训练了一个神经网络语言模型。
Alexander Huth让3名受试者,连续听16个小时的语音播客,并收集他们聆听时的fMRI数据。
这些语言播客主要是一些脱口秀和TED的演讲,比如纽约时报的Modern Love。
接下来研究人员借助大型语言模型将参与者的fMRI数据集翻译成单词和短语。
随后测试参与者听新录音的脑部活动,通过观察翻译文本与参与者听到的文本的接近程度,就可以知道解码器到底准不准。
通过对比人听到的语句(左)和解码器根据大脑活动输出的语句(右)可以发现,蓝色和紫色部分占绝大多数,蓝色代表完全一致,紫色代表大意准确。
虽然几乎每个单词都不是一一对应,但是整个句子的意义被保留了下来,也就是解码器在给大脑信号「释义」。
比如最后一句,受试者听到的是「我还没拿到驾照」,而解码器给出的回答是「她还没准备好开始学车」。
正如研究者所称,人工智能无法将思想转化确切词汇或句子,而是改写。
随后,受试者被要求安静地在脑中构思一个故事,然后大声复述出来,来看看复述版本和解码器翻译版的差别。
可以看到,意义的重合度还是很高的。
最后,受试者观看了一段动画电影,这段电影没有任何声音,但通过分析他们的大脑活动,解码器可以了解他们正在观看的内容的概要。
实验结果发现,GPT模型从感知语音、想象语音、甚至无声视频中生成可理解的单词序列,其准确性令人惊叹。
具体准确率如下:
感知语音(受试者听录音) : 72-82%
想象语言(受试者在内心讲述一个一分钟的故事) : 41-74%
无声电影(受试者观看皮克斯无声电影剪辑): 21-45%
麻省理工大学的神经科学家Greta Tuckute说,语言感知是一个外部驱动的过程,而想象力是一个活跃的内部过程,通过大型语言模型可以将内在的脑部活动展示在我们眼前。
我们现在是否能从大脑读取信息?是的,某种程度上可以。
有朝一日,这个解码器可能会被用来帮助那些丧失说话能力,或者调查心理健康状况的人们。
精神隐私,也没了
然而,解码人类思想的前景还引发了关于精神隐私的问题。
Huth博士指出,这种语言解码方法存在一定局限性。
因为,fMRI扫描仪体积庞大且价格昂贵,此外训练模型是一个漫长而乏味的过程,也就是必须对每个人都进行单独的训练。
对此,研究小组进行了一项额外的研究,使用接受过其他受试者数据训练的解码器,来解码新受试者的想法。
研究发现,对使用不同受试者数据进行训练的解码器,其表现几乎不怎么样。
简言之,只有使用受试者自己大脑记录的数据,来训练AI模型,其准确率才会非常高。
这表明每个大脑都有独特的表示意义的方式。
另外,参与者还能够屏蔽他们内心的独白,通过思考其他事情来摆脱解码器。比如数到七、列出农场动物,或叙述一个完全不同的故事。
也就是说,这一解码器要想要获得准确的结果,必须需要志愿者的配合。
然而,科学家们承认,未来的解码器可能会克服这些限制,未来可能会被滥用,就像测谎仪一样。
研究人员总结道,一个美丽的新世界正在到来,由于这些和其他不可预见的原因。
提高人们对大脑解码技术风险的认识并制定保护每个人精神隐私的政策是至关重要的。
在《黑镜》中有这样一幕,一位保险代理人使用一台机器(配备了视觉监控器和大脑传感器)读取人们的记忆,来调查一起意外死亡事件。
然而,这一未来或许就是现在。
德克萨斯大学研究者这一突破,直接推动了神经科学、通信和人机交互等领域潜在应用。
尽管「大脑解码器」还在研究中早期阶段,但有朝一日它可能被用于记录人们的梦境,并为脑机接口进一步发展提供动力。
负责这项研究的神经科学家Alexander Huth博士称,我们对这项工作的原理感到震惊。我为此研究了15年... ... 所以当它最终成功时,我感到非常震惊和兴奋。
看来,我们离《X战警》中X教授查尔斯大脑扫描技术又近了一步。
网友:AI通灵者
看过这项研究后,让许多人瞬间「炸脑」。有网友称,
人工智能不仅可以比我们快一万倍地交流,而且现在甚至可以读取我们的思想。在 「这太酷了」和 「等等,我们是不是要被淘汰了」之间只有一线之隔。
AI现在可以像通灵者一样读心。「Keep in mind」,这只是1.0版本。在未来,我们的想法将不再是隐私。世界经济论坛的第四次工业革命非常清晰地阐述了这一点。
这是首次以非侵入性方式从人类大脑活动中重建连续的语言!
对于这项研究,生物伦理学家 Rodriguez-Arias Vailhen称,目前为止,人类大脑一直是我们隐私的守护者。
「这一发现可能是在未来牺牲这种自由的第一步。」
以上是AI通灵模型成功解码大脑信息,准确率达到82%的详细内容。更多信息请关注PHP中文网其他相关文章!

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:https://spj.scien

译者 | 李睿审校 | 孙淑娟近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

螳螂BT
Mantis是一个易于部署的基于Web的缺陷跟踪工具,用于帮助产品缺陷跟踪。它需要PHP、MySQL和一个Web服务器。请查看我们的演示和托管服务。

DVWA
Damn Vulnerable Web App (DVWA) 是一个PHP/MySQL的Web应用程序,非常容易受到攻击。它的主要目标是成为安全专业人员在合法环境中测试自己的技能和工具的辅助工具,帮助Web开发人员更好地理解保护Web应用程序的过程,并帮助教师/学生在课堂环境中教授/学习Web应用程序安全。DVWA的目标是通过简单直接的界面练习一些最常见的Web漏洞,难度各不相同。请注意,该软件中

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

适用于 Eclipse 的 SAP NetWeaver 服务器适配器
将Eclipse与SAP NetWeaver应用服务器集成。

Dreamweaver Mac版
视觉化网页开发工具