搜尋
首頁科技週邊人工智慧多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

「人工智慧想越獄「、」AI產生自我意識」、「AI終將殺死人類」、「矽基生命的進化」.......曾經只在賽博朋克等科技幻想中出現的劇情,在今年走向現實,生成式自然語言模型正遭受前所未有的質疑。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

聚光燈下最矚目的那個是ChatGPT,3月底到4月初,OpenAI開發的這個文本對話機器人,突然從“先進生產力”的代表變成了人類的威脅。

先是被上千位科技圈的精英點名,放在「暫停訓練比GPT-4更強大的AI系統」的公開信中;緊接著,美國科技倫理組織又要求美國聯邦貿易委員會調查OpenAI,禁止發布商業版 GPT-4;後來,義大利成為第一個禁用ChatGPT 的西方國家;德國監管機構跟進表示,正在考慮暫時禁用ChatGPT。

GPT-4連帶著它的開發公司OpenAI突然成了眾矢之的,呼籲AI監管的各方聲音變得越來越響亮。 4月5日,ChatGPT以訪問量太大為由暫停了Plus付費版,這是一個可以優先體驗GPT-4模型的管道。

如果算力與伺服器是GPT-4使用設限的原因,那麼這是技術瓶頸使然,但從OpenAI的研發進展看,突破瓶頸的周期可能並不會太長,而人們也已經見識過AI對生產力提升的效果。

可是,當AI造假、洩漏資料成為GPT-4實操中的硬幣另一面時,AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將「野獸」關進籠子裡。

1.洩密、造假問題浮出水面

主權國家對ChatGPT的禁令接踵而至。

3月31日,義大利個人資料保護局宣布,禁止使用聊天機器人ChatGPT,並表示已對該應用程式背後的公司OpenAI展開調查,因為ChatGPT出現了用戶對話資料和付款服務支付資訊遺失情況,缺乏大規模收集和儲存個人資訊的法律依據。 4月3日,德國聯邦資料保護專員稱,出於資料保護的考慮,正在考慮暫時停用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監管機構都在跟進ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國「信任」。近期,韓國電子巨擘三星也因使用ChatGPT而出現了問題。根據SBS等韓媒通報事件,三星導入ChatGPT不到20天,便發生 3 起資料外洩事件,涉及半導體設備測量資料、產品良率等內容。對此,三星啟動了「緊急措施」:將員工向ChatGPT提問的限制在1024位元組以內。據悉,軟銀、日立、摩根大通等知名企業都曾發出了相關的限用通知。

應了「物極必反」那句老話,ChatGPT為AI產業注入「興奮劑」、引發科技巨頭AI競速的同時,也帶來了無法避免的安全問題,最後遭到多點「封鎖」。

資料安全僅是ChatGPT潛在風險中的冰山一角,背後是AI倫理對人類的挑戰:人工智慧工具缺乏透明度,人類並不清楚AI決策背後的邏輯;人工智能缺乏中立性,很容易出現不準確、帶有價值觀的結果;人工智慧的資料收集可能會侵犯隱私。

「AI倫理與安全」似乎過於宏觀,但當我們把視角聚焦在真實案例時,就會發現這個議題與我們每個人息息相關的事。

3月21日,新浪微博CEO王高飛發博曬了一段ChatGPT編造的假訊息:「瑞士信貸被強制出售,有172億美元的AT1債務被直接清零」。網友「一瑩海岸」對此指出,先前只有2017年西班牙大眾銀行破產時曾出現AT1債券減記的情況。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#

新浪微博CEO曬ChatGPT編造的答案

#王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也曾出現過。但結果查證之後發現,BCP銀行的例子是ChatGPT編造的並不存在的事件,它所給的兩個信源開啟也是404。 「知道胡扯,沒想到連信源都是胡扯的。」

此前,ChatGPT「一本正經地胡說八道」被網友們當做「梗」,以證明該對話機器人“雖然能直給訊息,但存在錯誤」的問題,這似乎是大模型數據或訓練上的缺陷,但一旦這種缺陷介入到容易影響現實世界的事實時,問題就變得嚴重起來。

新聞可信度評估機構News Guard的聯合執行官格洛維茨(Gordon Crovitz)就警告稱,「ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。」

更令人擔憂的是,當前的ChatGPT等對話式人工智慧一旦出現偏見或歧視,甚至存在誘導用戶、操縱用戶情感等行為時,就不只是造謠、傳謠的後果了,直接引發生命威脅的案例已經出現。 3月28日,有外媒消息稱,比利時30歲男子在與聊天機器人ELIZA密集交流數週後自殺身亡,ELIZA是由EleutherAI開發的開源人工智慧語言模型。

更早前的3月18日,史丹佛大學教授在推特上表達了對AI失控的擔憂,「我擔心我們無法持久地遏制住AI,」他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整的「越獄」計劃,ChatGPT甚至還想在谷歌上搜尋「被困在電腦中的人如何回到現實世界」。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#史丹佛大學教授擔憂AI失控

就連OpenAI的首席執行官Sam Altman也曾發表了耐人尋味的憂慮,“未來AI確實可能殺死人類。”

2.機器的“偏見”都是人教的?

針對AI造假、AI擁有價值觀傾向並產生誘導行為等問題,有一些代表性觀點是將機器學習結果的「偏見」歸咎於資料集——人工智慧就像現實世界中的鏡子,折射出社會中人們有意識或無意識的偏見。

英偉達的AI科學家Jim Fan認為,「按照 GPT 的倫理與安全指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——不安全。」他坦言,指出這一點的原因是為了讓大家了解安全校準工作對於整個研究團體來說是多麼困難,「大多數的訓練數據本身就是有偏見的、有毒的、不安全的。」

自然語言大模型的確採用了人類回饋的增強學習技術,即透過人們餵給它的大量資料不斷學習和回饋。這也是ChatGPT們會產生具有偏見、歧視性內容的原因,但這反映出了資料使用的倫理隱患。哪怕機器是中立的,但用它的人不是。

「演算法中立」的說法對話式機器人產生負面影響後變得不受一些人待見,因為它容易失去控製而產生威脅人類的問題,正如紐約大學心理學和神經科學的榮譽退休教授 Gary Marcus 所說的那樣,「該計畫(GPT-4)的技術已經存在風險,卻沒有已知的解決方案。實際上需要更多的研究。」

早在1962年,美國作家埃魯爾在其《技術社會》一書中就指出,科技的發展通常會脫離人類的控制,即使是技術人員和科學家,也不能夠控制其所發明的技術。如今,GPT的快速發展似乎初步驗證了埃魯爾的預言。

以GPT為代表的大模型背後的「演算法黑盒子」更是人類無法及時應對的隱患,自媒體差評給了一個形象的比喻,「你只知道給它餵了一個蘋果,但它能還你一個橘子”,這是怎麼發生的,開發的它的人也無法解釋,甚至無法預測它輸出的結果。

OpenAI創始人Sam Altman在接受 MIT 研究科學家 Lex Fridman 訪問時就坦言,從 ChatGPT開始,AI出現了推理能力,但沒人能解讀這種能力出現的原因。就連OpenAI團隊也沒搞清楚它是如何演化的,唯一的方法是向ChatGPT提問,從它的回答中摸索它的思路。

可見,資料如果是作惡者餵的,演算法黑匣又難以破解,那麼AI的失控就會成為自然而言的結果。

3.將“野獸”關進籠子

人工智慧作為生產力革命的“火種”,我們無法對其說不。但前提是,先將「野獸」關進籠子裡。

3月30日,Sam Altman在推特上認同了對人工智慧監管的重要性,他認為,AGI的未來需要我們做好三個必要性的準備:

  • #對齊超級智慧的技術能力
##大多數領先AGI工作之間的充分協調

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#一個有效的全球監管框架,包括民主治理

Sam Altman的AGI三建議

#建立一個安全可控、可監管的環境,以確保AI在造福人類的同時不會傷害人類利益,這正在成為產業共識。

已經有對此從技術層面上改進。今年1月,OpenAI的前副總裁Dario Amodei標識,正在測試新型聊天機器人Claude。與ChatGPT所採用的人類回饋強化學習不同,Claude 基於偏好模型而非人工回饋來進行訓練,即透過制定規範化的原則來訓練危害較小的系統,從而在根源處減少有害、不可控的資訊的產生。

Amodei曾主導OpenaAI的安全,2021年,他對OpenAI在大語言模型技術還不夠安全的情況下開始商業化而感到不滿,他帶領一批人從 OpenAI離開並自立門戶,創立了Anthropic。

######Amodei的做法很像科幻小說家阿西莫夫提到的機器人定律——透過為機器人設定行為準則,來降低機器人毀滅人類的可能。 ############僅靠企業力量製定人工智慧的行為準則還遠遠不夠,否則會陷入「又是裁判、又是運動員」的問題中,行業內的倫理框架和政府層面的法律監管也不能再“慢吞吞”,透過技術規則、法律法規來約束企業自設行為也是當下人工智慧發展的重要課題。 ############在對人工智慧立法層面,目前還沒有一個國家或地區通過專門針對人工智慧的法案。 ############2021年4月,歐盟提出了《人工智慧法案》,目前仍在審議階段;2022年10月,美國白宮發布了《人工智慧權力法案藍圖》,該藍圖並不具法律效力,只是為監管機構提供了一個框架;2022年9月,深圳通過了《深圳經濟特區人工智慧產業促進條例》,成為全國首部人工智慧產業專項條例;2023年3月,英國發布《人工智慧產業監管白皮書》,概述了針對ChatGPT等人工智慧治理的五項原則。 ######

就在4月3日,中國也開始跟進相關人工智慧的規則建立-科技部就《科技倫理審查辦法(試行)》公開徵求意見,其中提出,從事生命科學、醫學、人工智慧等科技活動的單位研究內容涉及科技倫理敏感領域的,應設立科技倫理 (審查) 委員會。涉及資料和演算法的科技活動,資料處理方案符合國家有關資料安全的規定,資料安全風險監測及緊急處理方案得當:演算法和系統研發符合公亞、公正、透明、可靠、可控等原則。

在ChatGPT引發生成式大模型研發的爆發式成長後,監管有意加快節奏。歐盟工業政策主管Thierry Breton 在今年2月表示,歐盟委員會正與歐盟理事會和歐洲議會密切合作,進一步明確《人工智慧法案》中針對通用AI系統的規則。

無論是企業、學界或政府,已經開始重視人工智慧的風險,建立規則的呼籲與動作出現了,人類並不准備溫和地走進AI時代。


#

以上是多國擬發ChatGPT禁令 關「野獸」的籠子要來了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
AI內部部署的隱藏危險:治理差距和災難性風險AI內部部署的隱藏危險:治理差距和災難性風險Apr 28, 2025 am 11:12 AM

Apollo Research的一份新報告顯示,先進的AI系統的不受檢查的內部部署構成了重大風險。 在大型人工智能公司中缺乏監督,普遍存在,允許潛在的災難性結果

構建AI測謊儀構建AI測謊儀Apr 28, 2025 am 11:11 AM

傳統測謊儀已經過時了。依靠腕帶連接的指針,打印出受試者生命體徵和身體反應的測謊儀,在識破謊言方面並不精確。這就是為什麼測謊結果通常不被法庭採納的原因,儘管它曾導致許多無辜者入獄。 相比之下,人工智能是一個強大的數據引擎,其工作原理是全方位觀察。這意味著科學家可以通過多種途徑將人工智能應用於尋求真相的應用中。 一種方法是像測謊儀一樣分析被審問者的生命體徵反應,但採用更詳細、更精確的比較分析。 另一種方法是利用語言標記來分析人們實際所說的話,並運用邏輯和推理。 俗話說,一個謊言會滋生另一個謊言,最終

AI是否已清除航空航天行業的起飛?AI是否已清除航空航天行業的起飛?Apr 28, 2025 am 11:10 AM

航空航天業是創新的先驅,它利用AI應對其最複雜的挑戰。 現代航空的越來越複雜性需要AI的自動化和實時智能功能,以提高安全性,降低操作

觀看北京的春季機器人比賽觀看北京的春季機器人比賽Apr 28, 2025 am 11:09 AM

機器人技術的飛速發展為我們帶來了一個引人入勝的案例研究。 來自Noetix的N2機器人重達40多磅,身高3英尺,據說可以後空翻。 Unitree公司推出的G1機器人重量約為N2的兩倍,身高約4英尺。比賽中還有許多體型更小的類人機器人參賽,甚至還有一款由風扇驅動前進的機器人。 數據解讀 這場半程馬拉松吸引了超過12,000名觀眾,但只有21台類人機器人參賽。儘管政府指出參賽機器人賽前進行了“強化訓練”,但並非所有機器人均完成了全程比賽。 冠軍——由北京類人機器人創新中心研發的Tiangong Ult

鏡子陷阱:人工智能倫理和人類想像力的崩潰鏡子陷阱:人工智能倫理和人類想像力的崩潰Apr 28, 2025 am 11:08 AM

人工智能以目前的形式並不是真正智能的。它擅長模仿和完善現有數據。 我們不是在創造人工智能,而是人工推斷 - 處理信息的機器,而人類則

新的Google洩漏揭示了方便的Google照片功能更新新的Google洩漏揭示了方便的Google照片功能更新Apr 28, 2025 am 11:07 AM

一份報告發現,在谷歌相冊Android版7.26版本的代碼中隱藏了一個更新的界面,每次查看照片時,都會在屏幕底部顯示一行新檢測到的面孔縮略圖。 新的面部縮略圖缺少姓名標籤,所以我懷疑您需要單獨點擊它們才能查看有關每個檢測到的人員的更多信息。就目前而言,此功能除了谷歌相冊已在您的圖像中找到這些人之外,不提供任何其他信息。 此功能尚未上線,因此我們不知道谷歌將如何準確地使用它。谷歌可以使用縮略圖來加快查找所選人員的更多照片的速度,或者可能用於其他目的,例如選擇要編輯的個人。我們拭目以待。 就目前而言

加固芬特的指南 - 分析Vidhya加固芬特的指南 - 分析VidhyaApr 28, 2025 am 09:30 AM

增強者通過教授模型根據人類反饋進行調整來震撼AI的開發。它將監督的學習基金會與基於獎勵的更新融合在一起,使其更安全,更準確,真正地幫助

讓我們跳舞:結構化運動以微調我們的人類神經網讓我們跳舞:結構化運動以微調我們的人類神經網Apr 27, 2025 am 11:09 AM

科學家已經廣泛研究了人類和更簡單的神經網絡(如秀麗隱桿線蟲中的神經網絡),以了解其功能。 但是,出現了一個關鍵問題:我們如何使自己的神經網絡與新穎的AI一起有效地工作

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

Dreamweaver Mac版

Dreamweaver Mac版

視覺化網頁開發工具

mPDF

mPDF

mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

SublimeText3 Linux新版

SublimeText3 Linux新版

SublimeText3 Linux最新版

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具