首頁 >科技週邊 >人工智慧 >歐洲人工智慧法案即將出台,或影響全球科技監管

歐洲人工智慧法案即將出台,或影響全球科技監管

WBOY
WBOY轉載
2023-04-11 22:40:141262瀏覽

人工智慧法案旨在為人工智慧的使用創建一個共同的監管和法律框架,包括它是如何開發的,公司可以使用它做什麼,以及不遵守要求的法律後果。該法案可能會要求公司採用人工智慧前,在某些情況下需要獲得批准;並將某些被認為風險太大的人工智慧用途定為非法,並創建一個其他高風險人工智慧用途的公開清單。

歐洲人工智慧法案即將出台,或影響全球科技監管

歐盟委員會(European Commission)在一份有關該法律的官方報告中表示,在廣泛的層面上,該法律尋求將歐盟值得信賴的人工智慧範式法制化。這個範式「要求人工智慧在法律、倫理和技術上強大,同時尊重民主價值、人權和法治」。

建議的人工智慧監管框架具有以下目標:

1.確保在歐盟市場上部署和使用的人工智慧系統是安全的,並尊重現有法律基本權利和歐盟價值觀;

2.確保法律確定性,以促進人工智慧的投資和創新;

3.加強治理和有效執行有關基本權利和安全的現行法律適用於AI系統;

4.促進合法、安全和值得信賴的人工智慧應用的統一市場的發展,防止市場的分化。

雖然新法律的許多細節仍懸而未決,關鍵是人工智慧的定義,但核心因素似乎是它的“產品安全框架”,它將未來的人工智慧產品分為四個安全等級類別,適用於所有行業。

根據史丹佛-維也納跨大西洋科技法律論壇的Maruritz Kop彙編的2021年歐盟委員會關於新法律的報告,「臨界金字塔」的底部是風險最小的系統。屬於這一類的人工智慧應用不需要遵守風險較高的系統必須通過的透明度要求。在「有限風險」類別中,則對人工智慧系統有一些透明度要求,例如聊天機器人。

歐洲人工智慧法案即將出台,或影響全球科技監管

#-歐盟新的AI法案將AI程序分為四類,自下而上分別為:低風險、有限風險、高風險、不可接受風險。

在對透明度有嚴格要求的高風險AI類別中,監管會更加嚴苛。根據介紹,高風險類別包括AI應用在:

  • 關鍵基礎設施,如交通,可能危及人的生命或健康(如自動駕駛汽車);
  • 影響個人教育或職業成就的教育或職業訓練(如考試成績);
  • 產品的安全組件(如機器人輔助手術);
  • 就業、員工管理、自主創業(如履歷、履歷分類軟體);
  • 基本的私人和公共服務(如信用評分);
  • 執法用例(如證據評估);
  • 移民、邊境管理(包括護照真實性評估);
  • 公正和民主程序(如將法律適用於一組具體事實);
  • 監控系統(如生物特徵監測和麵部識別)。

塔尖的第四類是「不可接受風險」的人工智慧系統。這些應用基本上是非法的,因為它們帶來了太多的風險。這類應用的例子包括操縱行為或人或「特定弱勢群體」的系統,社會評分,以及即時和遠端生物識別系統。

高風險類別可能是許多公司將努力確保透明度和合規性的重點。歐盟的人工智慧法案將建議企業在推出屬於高風險類別的人工智慧產品或服務之前採取四個步驟。

  1. 開發高風險人工智慧系統,最好內部先使用人工智慧影響評估和由包容、多學科團隊監督的行為準則。
  2. 高風險人工智慧系統必須經過合格評定和批准,並持續進行在其生命週期內遵守歐盟AI法案規定要求。某些系統外機構將參與合格評定審核。這個動態的過程確保基準測試、監控和驗證。此外,高危險AI的動態系統,步驟2必須重複執行。
  3. 獨立高風險人工智慧系統的註冊將在一個專用的歐盟資料庫中進行。
  4. 必須簽署合格聲明,高風險AI系統必須帶有CE標記。

以上是歐洲人工智慧法案即將出台,或影響全球科技監管的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除