编辑:杜伟、小舟
AI 尤其是大模型时代的开源与闭源,有利有弊,重要的是如何在使用的过程中做好文章。
一直以来,人们在 AI 领域的开源与闭源选择上存在着分歧,而在大模型时代,开源这股强大的力量已经悄然崛起。根据此前谷歌泄露的一份内部文件,围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌大模型能力类似的模型。
毋庸置疑,Meta 是开源世界的绝对核心,持续做出开源努力,如最近发布 Llama 2。然而木秀于林风必摧之,最近 Meta 因为开源陷入了「麻烦」。
在旧金山的Meta办公室外,一群举着标语的抗议者聚集在一起,抗议Meta公开发布AI模型的策略,并声称这些发布的模型造成了潜在不安全技术的「不可逆转的扩散」。甚至有抗议者将Meta发布的大模型比作「大规模杀伤性武器」
这些抗议者自称为「concerned citizens」(关心某事的公民),由 Holly Elmore 领导。根据领英信息,她是 AI Pause(中止 AI)运动的独立倡导者。
需要重写的内容是:图片来源:MISHA GUREVICH
如果一个模型被证明不安全,她指出可以关闭API。例如,谷歌和OpenAI等公司只允许用户通过API访问大型模型
相反地,Meta的LLaMA系列开源模型向公众提供了模型权重,使得任何拥有合适硬件和专业知识的人都可以自行复制和调整模型。一旦发布了模型权重,发布公司就无法再控制AI的使用方式
在Holly Elmore的看法中,释放模型权重是一种危险的策略,任何人都可以修改模型,而且这些模型无法被撤销。"模型越强大,这种策略就越危险。"
与开源模型相比,通过 API 访问的大型模型通常具备各种安全特性,例如响应过滤或通过特定的训练来阻止输出危险或令人讨厌的响应
如果模型权重被释放出来,那么重新训练模型来跳过这些「护栏」就变得容易多了。这使得利用这些开源模型来制作网络钓鱼软件、实施网络攻击更加成为了可能。
需要重写的内容是:图片来源:MISHA GUREVICH
她认为模型安全的问题部分在于当前采取的安全措施不够,因此需要找到更好的方式来保证模型的安全性
目前,Meta尚未对此发表任何评论。然而,Meta的首席AI科学家Yann LeCun似乎对“开源AI必须被取缔”的说法作出了回应,并展示了巴黎开源AI创业社区的繁荣景象
有很多人持不同意见,认为AI发展的开放策略是确保实现技术信任的唯一途径,与Holly Elmore的观点不同
有网友表示,开源有利有弊,既可以让人们获得更高透明度并增强创新,但也将面临恶意行为者滥用(如代码)的风险。
正如预料的那样,OpenAI再次遭到了嘲笑,有人说「它应该回归开源。」
有很多人对开源持有担忧
麻省理工学院人工智能安全博士后研究员Peter S. Park表示,未来广泛发布先进的人工智能模型可能会带来很多问题,因为基本上无法完全防止人工智能模型的滥用
不过,非营利性人工智能研究组织 EleutherAI 的执行董事 Stella Biderman 表示:「到目前为止,几乎没有证据表明开源模型造成了任何具体的损害。目前还不清楚是否仅在 API 背后放置一个模型就可以解决安全问题。」
Biderman认为:“构建LLM的基本要素已经在免费的研究论文中公开,任何人都可以阅读这些论文来开发自己的模型。”
她进一步指出:“如果公司鼓励对模型细节保密,可能会对领域研究的透明度、公众意识和科学发展产生严重的不良后果,尤其是对独立研究人员会有影响。”
尽管大家已经在讨论开源带来的影响,但 Meta 的方法是否真的足够开放,是否能够发挥开源的优势,还未可知。
开放源代码促进会(OSI)的执行董事Stefano Maffulli表示:“开源人工智能的概念尚未得到明确定义。不同的组织使用这个术语来指代不同的事物,表示不同程度的‘公开可用的东西’,这可能会让人们感到困惑。”
Maffulli 指出,对于开源软件来说,关键问题在于源代码是否公开可用并可用于任何目的。然而,要复现 AI 模型可能需要共享训练数据、数据收集方式、训练软件、模型权重、推理代码等等。其中,最重要的问题是训练数据可能涉及隐私和版权问题
OSI自去年以来一直致力于为「开源AI」给出一个确切的定义,很有可能会在未来几周内发布早期草案。但无论如何,他都认为开源对AI发展至关重要。「如果AI不是开源的,我们就不可能拥有值得信赖、负责任的AI」,他说道
未来,关于开源与闭源的分歧会一直延续下去,但开源已经无法阻挡。
以上是AI失控风险加剧:开放模型权重引发Meta举牌抗议的详细内容。更多信息请关注PHP中文网其他相关文章!