最近的一项研究根据人工智能模型呈现的风险对它们进行了排名,揭示了广泛的行为和合规问题。这项工作旨在深入了解这些技术的法律、道德和监管挑战。结果可以指导政策制定者和公司应对安全部署人工智能的复杂性。
最近的研究根据人工智能模型呈现的风险对它们进行了排名,强调了广泛的行为和合规问题。这项工作旨在深入了解这些技术的法律、道德和监管挑战,指导政策制定者和公司应对安全部署人工智能的复杂性。
芝加哥大学副教授李博领导了这项研究,他以测试人工智能系统来识别潜在风险而闻名。他的团队与多所大学和公司合作,开发了一个名为 AIR-Bench 2024 的基准来大规模评估人工智能模型。
该研究发现了不同模型在遵守安全和监管标准方面的差异。例如,某些模型在特定类别中表现出色; Anthropic 的 Claude 3 Opus 特别擅长拒绝产生网络安全威胁,而 Google 的 Gemini 1.5 Pro 在避免产生未经同意的性图像方面表现出色。这些发现表明,某些模型更适合特定任务,具体取决于所涉及的风险。
另一方面,一些模型整体表现不佳。该研究一致将 Databricks 开发的 DBRX Instruct 模型列为各种风险类别中最差的模型。当 Databricks 在 2023 年发布该模型时,该公司承认其安全功能需要改进。
研究团队还研究了各种人工智能法规与公司政策的比较。他们的分析显示,企业政策往往比政府法规更全面,这表明监管框架可能落后于行业标准。
李波表示“政府监管还有收紧的空间。”
尽管许多公司对人工智能的使用实施了严格的政策,但研究人员发现这些政策与人工智能模型的表现之间存在差异。在一些情况下,人工智能模型未能遵守开发它们的公司制定的安全和道德准则。
这种不一致表明政策与实践之间存在差距,可能使公司面临法律和声誉风险。随着人工智能的不断发展,缩小这一差距可能变得越来越重要,以确保安全和负责任地部署该技术。
其他努力也在进行中,以更好地了解人工智能风险状况。麻省理工学院的两位研究人员 Neil Thompson 和 Peter Slattery 通过分析 43 个不同的 AI 风险框架,开发了一个 AI 风险数据库。该举措旨在帮助公司和组织评估与人工智能相关的潜在危险,特别是当该技术得到更广泛的采用时。
麻省理工学院的研究强调,某些人工智能风险比其他风险受到更多关注。例如,团队审查的 70% 以上的风险框架都集中在隐私和安全问题上。然而,解决错误信息等问题的框架较少(大约 40%)。这种差异可能表明,当组织关注更突出的问题时,某些风险可能会被忽视。
“许多公司仍处于采用人工智能的早期阶段,可能需要进一步的指导来管理这些风险,”麻省理工学院未来科技小组该项目的负责人 Peter Slattery 说。该数据库旨在让人工智能开发者和用户更清楚地了解所面临的挑战。
尽管人工智能模型能力取得了进步,例如Meta的Llama 3.1,它比其前身更强大,但在安全性方面的改进却微乎其微。李博指出,最新版本的Llama虽然能力更强,但在安全性方面并没有表现出明显的增强。
李表示,“安全性并未显着改善”,这反映出行业内面临更广泛的挑战,即优先考虑和优化人工智能模型以实现安全和负责任的部署。
以上是人工智能风险评估:绘制人工智能风险演变格局的竞赛的详细内容。更多信息请关注PHP中文网其他相关文章!

在特朗普90天的关税停顿之后,AltCoins显示出新的生活迹象,尤其是三个名字(XRP,Hype和Ondo)引起了投资者的关注。

n人道主义联盟与12位创始成员启动,以利用比特币的力量

俄亥俄州辛辛那提市 - 由于当地警察和俄亥俄州刑事调查局(BCI)的迅速行动,一名73岁的德里乡镇妇女在加密货币骗局中丧失了35,000多美元,损失了35,000美元。

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

SublimeText3 Linux新版
SublimeText3 Linux最新版

WebStorm Mac版
好用的JavaScript开发工具

禅工作室 13.0.1
功能强大的PHP集成开发环境

Atom编辑器mac版下载
最流行的的开源编辑器