最近,關於生成式人工智慧工具的討論越來越多,特別是在多個大型語言模型和圖像生成器(如DALL-E或Midjourney)發布之後。
這些發明再次將通用人工智慧(GPAI)置於人們的關注的目光下,並再次提出了諸如GPAI是否應該受到監管等假設性問題。
在人們進一步探索可能性之前,先了解GPAI的概念,它的意義,它是什麼時候引入的等等。
兩年前,也就是2021年4月,歐盟委員會推出了通用人工智慧。最初的人工智慧法案提案免除了通用人工智慧創建者遵守一些法律文件和其他責任標準的責任。
原因是它只適用於高風險的人工智慧,在法案中根據它們的用途和背景明確提到和解釋了這一點。
另一項規定,即第28條,支持了這一主張,並建議通用人工智慧開發人員只有在對人工智慧系統進行重大調整或發展以用於高風險用途時才對合規負責。
但根據最近的報導,歐洲議會也在考慮對原始通用人工智慧提供者的某些「義務」。
歐盟人工智慧法案的基本目的是對使用人工智慧開發和部署系統時所涉及的各種行為者鏈進行分類和分類。
《人工智慧法案》對通用人工智慧的做法是為解決全球人工智慧危害建立監管基調的理想選擇。隨著最近公眾對生成式人工智慧的興趣增加,監管立場也有可能過度適應當前的問題。
令人驚訝的是,ChatGPT、dall-e2和Bard等較新的創新甚至都不是真正的問題;事實上,它們只是冰山一角。
推薦:負責任的人工智慧-如何在監管環境中採用道德模式
首先要理解的是,通用人工智能是一個巨大的類別,因此,將其應用於廣泛的技術領域是合乎邏輯的,而不是將其局限於聊天機器人和法學碩士。
為了確保歐盟人工智慧法案具有未來主義的性質,它必須涉及更大的規模。首先,GPAI的正確描述應該包括許多可以作為其他人工智慧系統基礎的技術(“任務”)。
歐盟理事會將其定義為:
「提供者打算執行一般適用的功能,如圖像和語音識別、音訊和視訊生成、模式檢測、問題回答、翻譯等;通用人工智慧系統可以在多個場景中使用,並且可以整合到多個其他AI系統中。」
通用人工智慧可能造成廣泛的危害
#雖然這些風險不能在應用層中完全克服,但我們可以否認它們可能對各種應用程式和參與者產生影響的事實。我們應該在製定通用人工智慧監管方法的同時,考慮人工智慧技術的現狀、應用及其運作方式。
例如,通用人工智慧模式冒著產生反民主論述的風險,例如針對性、種族和宗教少數群體的仇恨言論。這些模型的風險在於,在它們的基礎數據中固化了受約束或扭曲的觀點。
為了讓通用人工智慧考慮到涉眾的多樣性,它必須在整個產品週期中進行治理,而不僅僅是在應用層。開發的第一個階段是至關重要的,創建這些模型的業務必須對他們利用的資訊和他們所做的體系結構決策負責。人工智慧供應網路的現有架構有效地使參與者能夠從遠端下游應用程式中獲利,同時避免因開發層缺乏監管而承擔任何相應的責任。這包括資料的收集、清理和註釋過程,以及模型的創建、測試和評估過程。
通用人工智慧的創建者不可能使用基本的法律免責聲明來免除他們的責任。這種方法可能導致一個危險的漏洞,它將釋放原始開發人員的所有責任,而將責任放在下游參與者身上,他們沒有能力管理所有風險。理事會的一般方法確實有一個例外,即允許通用人工智慧開發人員免除自己的任何責任,只要他們在說明中排除所有高風險用途並確保系統不會被濫用。
推薦:發現、解決和揭穿隱藏的人工智慧偏見
一個基本的、統一的文檔實踐來評估通用人工智慧模型,特別是產生人工智慧模型,跨越各種危害是一個正在進行的研究領域。為了避免膚淺的複選框練習,監管應防止狹隘的評估方法。
在實施或向公眾提供通用人工智慧系統之前,必須經過細緻的警惕、驗證和檢查。最近的建議將通用人工智慧模型納入人工智慧法案的範圍,要么推遲制定未來的具體標準(由委員會決定),要么試圖在人工智慧法案的措辭中這樣做。
例如,在一個達成一致的社會中,可能產生的影響的分佈可能會有所不同,這取決於一個原型是為整個社區構建和使用的,還是為一個小社區使用的。
歐盟人工智慧法案即將成為第一個廣泛的人工智慧法律,總有一天,它將成為所有國家的統一標準。這就是為什麼處理人工智慧領域並將其轉化為每個人都可以遵循的全球模板至關重要的原因。
以上是有關通用人工智慧需要知道的事項的詳細內容。更多資訊請關注PHP中文網其他相關文章!