首页  >  文章  >  科技周边  >  开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

PHPz
PHPz转载
2023-12-15 10:23:55714浏览

2023 年即将过去。一年以来,各式各样的大模型争相发布。当 OpenAI 和谷歌等科技巨头正在角逐时,另一方「势力」悄然崛起 —— 开源。

开源模型受到的质疑一向不少。它们是否能像专有模型一样优秀?是否能够媲美专有模型的性能?迄今为止,我们一直还只能说是某些方面接近。即便如此,开源模型总会给我们带来经验的表现,让我们刮目相看。

开源模型的兴起正在改变游戏规则。如 Meta 的 LLaMA 系列以其快速迭代、可定制性和隐私性正受到追捧。这些模型被社区迅速发展,给专有模型带来了强有力的挑战,能够改变大型科技公司的竞争格局。

不过此前人们的想法大多只是来自于「感觉」。今天早上,Meta 首席 AI 科学家、图灵奖获得者 Yann LeCun 突然发出了这样的感叹:「开源人工智能模型正走在超越专有模型的路上。」

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

这个由方舟投资(ARK Invest)团队制作的趋势图被认为可能预测了2024年的人工智能发展。它展示了开源社区与专有模型在生成式人工智能方面的发展

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

随着OpenAI和Google等公司变得越来越封闭,他们公开最新模型信息的频率越来越少。因此,开源社区及其企业支持者Meta开始步入其后,使得生成式AI更加民主化,这或许会对专有模型的商业模式构成挑战

在这个散点图中显示了各种 AI 模型的性能百分比。专有模型用蓝色表示,开源模型用黑色表示。我们可以看到不同的 AI 模型如 GPT-3、Chinchilla 70B(谷歌)、PaLM(谷歌)、GPT-4(OpenAI)和 Llama65B(Meta)等在不同时间点的性能。

Meta 最初发布 LLaMA 时,参数量从 70 亿到 650 亿不等。这些模型的性能非常优异:具有 130 亿参数的 Llama 模型「在大多数基准上」可以胜过 GPT-3( 参数量达 1750 亿),而且可以在单块 V100 GPU 上运行;而最大的 650 亿参数的 Llama 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

Falcon-40B 刚发布就冲上了 Huggingface 的 OpenLLM 排行榜首位,改变了 Llama 一枝独秀的场面。

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

Llama 2 开源,再一次使大模型格局发生巨变。相比于 Llama 1,Llama 2 的训练数据多了 40%,上下文长度也翻倍,并采用了分组查询注意力机制。

最近,开源大模型宇宙又有了新的重量级成员 ——Yi 模型。它能一次处理 40 万汉字、中英均霸榜。Yi-34B 也成为迄今为止唯一成功登顶 Hugging Face 开源模型排行榜的国产模型。

根据散点图所示,开源模型的性能不断追赶专有模型。这意味着在不久的将来,开源模型有望与专有模型在性能上并驾齐驱,甚至超越

Mistral 8x7B在上周末以最朴素的发布方式和强大的性能引起了研究者的高度评价,他们表示「闭源大模型走到结局了。」

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

已经有网友开始预祝「2024年成为开源人工智能年」,认为「我们正在接近一个临界点。考虑到当前开源社区项目的发展速度,我们预计未来12个月内将达到GPT-4的水平。」

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

接下来,我们将拭目以待开源模型的未来是否一帆风顺,以及它将展现出怎样的表现

开源大模型必须超越闭源——LeCun揭示2024年AI趋势图

以上是开源大模型必须超越闭源——LeCun揭示2024年AI趋势图的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除