根据外媒《华尔街日报》消息,Meta正在加紧开发新的大语言模型,能力将完全对标GPT-4,预计将于明年推出。
消息还特别强调了,Meta新的大语言模型将比Llama 2大数倍,而且大概率还是会开源,支持免费商用。
自从年初Meta将LlaMA「不小心」泄露出来之后,到7月份Llama 2的开源发布,Meta渐渐找到了自己在这次AI浪潮中的独特位置——AI开源社区的旗帜。
人员的变动不断,模型的能力存在缺陷,只能依赖开源软件来解决问题
年初,在OpenAI用GPT-4引爆了科技行业之后,谷歌,微软也相继推出了自己的AI产品。
在5月份的时候,美国监管层就邀请了当时他们认为AI行业相关的头部企业CEO,开了一个圆桌会议,讨论AI技术的发展。
OpenAI、谷歌和微软都受邀参加了,甚至还有初创公司Anthropic,但是Meta却没有出现。当时官方回应Meta缺席的原因是:“我们只邀请了AI行业中最顶尖的公司。”
好事没有轮上Meta,但是麻烦却源源不断地找上门来。
小扎在6月初收到了国会寄来的一封质询信,信中要求他详细解释3月份LlaMA泄漏事故的原因和影响。这封信措辞严厉,要求非常明确
而在后来的几个月时间里,即便在Llama 2发布之后,Meta之前花重金打造的AI团队却依然在逐渐分崩离析。
在Llama 2的致谢中,提到了4个最早发起这项研究的团队成员,其中三人已经离职,目前只有Edouard Grave仍在Meta公司工作
业界大牛何恺明,也将离开Meta,回归学术界。
根据最近The Information的爆料文章,Meta的AI团队,因为对于内部算力的争夺,摩擦不断,人员陆续离开。
在这样的大背景下,小扎自己应该也很清楚,Meta自己的大语言模型,也确实没有办法和业内最前沿的GPT-4沾边。
无论是从基准测试的各个方向还是用户反馈来看,Llama 2和GPT-4之间的差距仍然很大
在各项基准测试中,开源的Llama 2和GPT-4之间存在相当大的差距
GPT-4比Llama 2在网友的实际体验中依然表现出明显的领先优势
因此,小扎决定让Meta继续在模型开源之路上狂奔不止
或许小扎背后的思路是这样的:Meta模型的能力一般,无法与闭源大佬竞争,继续保密也没有什么意义。因此,干脆开源,让AI社区以自家模型为基础进行不断迭代,以扩大自己产品在业界的影响力
小扎曾多次公开表示,开源社区对于他们的模型迭代起到了启发作用,使得他们的技术团队能够在未来开发出更具竞争力的产品
小扎在Fridman的播客中强调,开源能让Meta从社区中吸取灵感,而且未来Meta可能会推出闭源模型。
参见:https://lexfridman.com/mark-zuckerberg-2/
而事实也证明,Meta的这个选择确实是正确的。
虽然在算力资源和技术实力上比不上谷歌,OpenAI,但是Meta的Llama 2等开源模型对于开源社区的吸引力依然是首屈一指的。随着Llama 2慢慢成为AI开源社区的「技术底座」,Meta也在行业中找到了自己的生态位。
最明显的一个标志是,马上9月份将要召开的国会AI闭门会议之中,小扎终于成为了监管层的座上宾,和谷歌、OpenAI等行业最前沿的公司CEO一同作为代表,对于AI行业监管发出自己的声音。
而如果明年Meta推出的新模型,能够继续保持进步,获得和GPT-4持平的能力,一方面能让开源社区继续拉近与闭源巨头的差距,坐实了「开源社区与行业最先进水平差距在一年左右」的说法。
另一方面,小扎在采访中也曾透露,如果未来大模型能力进一步提升,Meta可能会推出自己的闭源模型。如果新的模型能进一步迫近行业SOTA,也许就离Meta推出自己的闭源模型不远了。
尽管Meta在这次AI浪潮中似乎暂时落后,但小扎并不满足于只做一个追随者
在Yann Lecun的指导下,Meta也在准备颠覆整个行业
Meta的未来
所以,这个传说中能比肩GPT-4的神秘大模型之后,Meta AI未来会是什么样子?
因为目前还没有具体信息,我们也只能做一番猜测,比如从Meta AI首席科学家LeCun的态度入手。
当红炸子鸡GPT,一直是LeCun批评和鄙视的人工智能发展路线。
今年2月4日,LeCun直截了当地表达了他的观点,他认为大型语言模型在通往人类级别AI的道路上是一条错误的路径
他认为这种根据概率生成自回归的大模型最多活不过5年,因为这些人工智能只是在大量的文本上训练的,它们无法理解现实世界。
这些模型既不会进行计划,也不能进行推理,它们只具备上下文学习的能力
严肃的说,这些在LLM上训练的人工智能几乎毫无「智能」可言。
而LeCun期待的,则是能够通向AGI的 「世界模型」。
世界模型能够学习世界如何运作,更快速地进行学习,为完成复杂任务做出计划,并随时应对不熟悉的新情况。
这与需要大量预训练的LLM不同,世界模型能够像人类一样,从观察中找到规律,适应新环境、掌握新技能。
Meta力求多样化的模型开发,与OpenAI在LLM领域不断精进深耕的策略相比
今年6月14日,Meta发布了一个「类人」的人工智能模型 I-JEPA,也是史上第一个基于LeCun世界模型愿景关键部分的AI模型。
请点击以下链接查看论文:https://arxiv.org/abs/2301.08243
I-JEPA能够理解图像中的抽象表征,并通过自我监督学习获取常识
I-JEPA无需额外的人工制作知识作为辅助
随后,Meta推出了Voicebox,这是一个全新的创新性语音生成系统,它基于Meta AI提出的一种全新的方法——流匹配
它可以合成六种语言的语音,执行去噪、编辑内容、转换音频风格等操作。
Meta还发布了通用的具身AI代理人
通过语言引导技能协调(LSC),机器人可以在预先映射的某些环境中自由移动和拾取物品
在多模态模型的开发中,Meta独具特色
ImageBind,第一个能够从六种不同模态绑定信息的人工智能模型。
它具备了机器全面的理解能力,能够将照片中的物体与它们的声音、三维形状、温度以及运动方式联系起来
而来自Meta AI和CMU_Robotics共同开发的RoboAgent,让机器人可以获得各种各样的非平凡技能,并将它们推广到数百个生活场景中。
所有这些场景的数据都比之前在该领域的工作少了一个数量级
对于这次爆料的模型,有网友表示,希望他们继续开放源代码。
然而,也有一些网友表示,Meta要到2024年初才会开始训练
但令人欣慰的是,Meta依旧释放了自己将继续坚持原有战略的信号。
以上是Meta计划在明年发布全新的开源版GPT-4级大模型,其参数量将是Llama 2的数倍,用户可免费商用的详细内容。更多信息请关注PHP中文网其他相关文章!

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

译者 | 李睿审校 | 孙淑娟近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:https://spj.scien

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

禅工作室 13.0.1
功能强大的PHP集成开发环境

Atom编辑器mac版下载
最流行的的开源编辑器

MinGW - 适用于 Windows 的极简 GNU
这个项目正在迁移到osdn.net/projects/mingw的过程中,你可以继续在那里关注我们。MinGW:GNU编译器集合(GCC)的本地Windows移植版本,可自由分发的导入库和用于构建本地Windows应用程序的头文件;包括对MSVC运行时的扩展,以支持C99功能。MinGW的所有软件都可以在64位Windows平台上运行。

Dreamweaver Mac版
视觉化网页开发工具