IT之家10 月27 日消息,OpenAI 當地時間週四宣布,公司正在組建一個新團隊,以降低與AI 相關的“災難性風險”,將對AI 可能引發的重大問題進行追蹤、評估、預測和保護。
OpenAI 稱,「我們深信前沿AI 模型的能力將超過目前最先進的現有模型,並可能造福全人類,但它們也帶來了越來越嚴重的風險。」團隊將努力減輕核威脅、生物、化學和放射性威脅等一系列AI 可能引發的重大風險,以及AI「自我複製」等行為帶來的潛在風險。
圖源 Pexels
OpenAI 表示,公司需要確保擁有高能力 AI 系統安全所需的理解、基礎設施。該團隊將由原麻省理工學院可部署機器學習中心主任 Aleksander Madry 領導,並將製定、維護一項“風險知情開發政策”,以概述公司在評估和監控 AI 大模型所做的工作。
IT之家先前報道,非營利組織AI 安全中心於上月底發表簡短聲明:「將減輕人工智慧帶來的滅絕風險,放在和流行病、核戰等社會問題同一高度,作為全球優先事項推進”,這項22 字的倡議已得到了包括OpenAI 首席執行官山姆・阿爾特曼在內的多位AI 行業大佬的支持。
以上是OpenAI 正在組建新團隊,以防範 AI 相關「災難性」風險的詳細內容。更多資訊請關注PHP中文網其他相關文章!