北京時間10 月25 日晚間消息,微軟、谷歌、人工智慧新創企業OpenAI 和Anthropic 正加緊推進人工智慧(AI)安全標準的製定工作,並於今日任命了一名董事,以期填補全球監管方面的空白。
前沿模型論壇 任命執行董事今年夏天,科技巨頭聯合成立了前沿模型論壇(Frontier Model Forum),致力於安全和負責任地開發人工智慧模型。今日,他們任命了布魯金斯學會(Brookings Institution)的人工智慧主管 Chris Meserole 擔任該組織的執行董事。
此外,前沿模型論壇宣布計劃向人工智慧安全基金投資 1000 萬美元。
Meserole 表示:「我們距離真正的監管可能還有一段路要走。在此期間,我們希望確保這些系統(監管規則)盡可能安全。」
近年來,人們越來越擔心日益強大的人工智慧可能取代人類工作崗位,創造和傳播錯誤訊息,或最終超過人類智慧。
Meserole 表示,該論壇將尋求對任何官方法規進行「補充」。歐盟人工智慧法案預計明年初敲定。同時,英國將於下週主辦首屆全球人工智慧安全高峰會,邀請各國領導人和主要科技高階主管討論相關的合作。
Meserole 也稱,論壇最初將重點關注風險,包括人工智慧幫助設計生物武器的能力,以及產生可用於促進關鍵系統駭客攻擊的電腦程式碼的能力。
廣告聲明:文中提到的外部連結僅供參考,不代表本站觀點。
以上是微軟谷歌聯盟積極推動 AI 安全標準的詳細內容。更多資訊請關注PHP中文網其他相關文章!