最近的一項研究根據人工智慧模型呈現的風險對它們進行了排名,揭示了廣泛的行為和合規問題。這項工作旨在深入了解這些技術的法律、道德和監管挑戰。研究結果可以指導政策制定者和公司應對安全部署人工智慧的複雜性。
最近的研究根據人工智慧模型呈現的風險對它們進行了排名,強調了廣泛的行為和合規問題。這項工作旨在深入了解這些技術的法律、道德和監管挑戰,指導政策制定者和公司應對安全部署人工智慧的複雜性。
芝加哥大學副教授李波領導了這項研究,他以測試人工智慧系統來識別潛在風險而聞名。他的團隊與幾所大學和公司合作,開發了一個名為 AIR-Bench 2024 的基準來大規模評估人工智慧模型。
該研究發現了不同模型在遵守安全和監管標準方面的差異。例如,某些型號在特定類別中表現出色; Anthropic 的 Claude 3 Opus 特別擅長拒絕產生網路安全威脅,而 Google 的 Gemini 1.5 Pro 在避免產生未經同意的性愛圖片方面表現出色。這些發現表明,某些模型更適合特定任務,具體取決於所涉及的風險。
另一方面,有些模型整體表現不佳。該研究一致將 Databricks 開發的 DBRX Instruct 模型評為各種風險類別中最糟糕的模型。當 Databricks 在 2023 年發布該模型時,該公司承認其安全功能需要改進。
研究團隊也研究了各種人工智慧法規與公司政策的比較。他們的分析顯示,企業政策往往比政府法規更全面,這表明監管框架可能落後於行業標準。
李波表示:「政府監管還有收緊的空間」。
儘管許多公司對人工智慧的使用實施了嚴格的政策,但研究人員發現這些政策與人工智慧模型的表現之間存在差異。在一些情況下,人工智慧模型未能遵守開發它們的公司所製定的安全和道德準則。
這種不一致表明政策與實踐之間存在差距,可能使公司面臨法律和聲譽風險。隨著人工智慧的不斷發展,縮小這一差距可能變得越來越重要,以確保安全和負責任地部署該技術。
其他努力也在進行中,以便更好地了解人工智慧風險狀況。麻省理工學院的兩位研究人員 Neil Thompson 和 Peter Slattery 透過分析 43 個不同的 AI 風險框架,開發了 AI 風險資料庫。該舉措旨在幫助公司和組織評估與人工智慧相關的潛在危險,特別是當該技術得到更廣泛的採用時。
麻省理工學院的研究強調,某些人工智慧風險比其他風險更受關注。例如,團隊審查的 70% 以上的風險框架都集中在隱私和安全問題上。然而,解決錯誤訊息等問題的框架較少(約 40%)。這種差異可能表明,當組織專注於更突出的問題時,某些風險可能會被忽略。麻省理工學院未來科技小組此計畫的負責人Peter Slattery 表示:「許多公司仍處於採用人工智慧的早期階段,可能需要進一步的指導來管理這些風險。」該資料庫旨在為人工智慧開發人員和用戶提供更清晰的挑戰圖景。
儘管人工智慧模型功能取得了進步,例如 Meta 的 Llama 3.1,它比其前身更強大,但安全性方面的改進卻微乎其微。李博指出,最新版本的Llama雖然能力更強,但在安全性方面並沒有表現出明顯的增強。
李表示,“安全性並沒有顯著改善”,這反映出行業內面臨更廣泛的挑戰,即優先考慮和優化人工智慧模型以實現安全和負責任的部署。
以上是人工智慧風險評估:繪製人工智慧風險演進格局的競賽的詳細內容。更多資訊請關注PHP中文網其他相關文章!