北京时间 10 月 25 日晚间消息,微软、谷歌、人工智能初创企业 OpenAI 和 Anthropic 正加紧推进人工智能(AI)安全标准的制定工作,并于今日任命了一名董事,以期填补全球监管方面的空白。
前沿模型论坛 任命执行董事今年夏天,科技巨头联合成立了前沿模型论坛(Frontier Model Forum),致力于安全和负责任地开发人工智能模型。今日,他们任命了布鲁金斯学会(Brookings Institution)的人工智能主管 Chris Meserole 担任该组织的执行董事。
此外,前沿模型论坛宣布计划向人工智能安全基金投资 1000 万美元。
Meserole 表示:“我们距离真正的监管可能还有一段路要走。在此期间,我们希望确保这些系统(监管规则)尽可能安全。”
近年来,人们越来越担心日益强大的人工智能可能取代人类工作岗位,创造和传播错误信息,或者最终超过人类智能。
Meserole 表示,该论坛将寻求对任何官方法规进行“补充”。欧盟人工智能法案预计将于明年初敲定。与此同时,英国将于下周主办首届全球人工智能安全峰会,邀请各国领导人和主要科技高管讨论相关的合作。
Meserole 还称,论坛最初将重点关注风险,包括人工智能帮助设计生物武器的能力,以及生成可用于促进关键系统黑客攻击的计算机代码的能力。
广告声明:文中提到的外部链接仅供参考,不代表本站观点。
以上是微软谷歌联盟积极推进 AI 安全标准的详细内容。更多信息请关注PHP中文网其他相关文章!