首頁 >科技週邊 >人工智慧 >關於AI監管,馬斯克再'搖旗吶喊”,蘇納克也發出警告!

關於AI監管,馬斯克再'搖旗吶喊”,蘇納克也發出警告!

王林
王林轉載
2023-11-03 14:37:09642瀏覽

週四,全球首屆人工智慧安全高峰會在英國結束,馬斯克與英國首相蘇納克的AI對話引起了業界的關注

在這其中,馬斯克再次強調要提高AI監管的重要性,而蘇納克也發出警告稱AI可能會帶來類似核戰的風險

AI監督

在兩人的對話中,馬斯克將人工智慧描述為“歷史上最具顛覆性的力量”,並表示我們最終將“擁有比最聰明的人類更聰明的東西”。

同時,他也將人工智慧比喻為一把」雙面刃」。這項技術在他看來至少有80%的機率對人類有益,20%的機率會帶來危險,有可能成為人類面臨的「最大威脅」之一。

“人工智慧很可能成為一股向善的力量,但它變壞的可能性並不是零。”

對於人工智慧將如何影響工作時,馬斯克預測人類勞動力將被淘汰。

「總有一天, 我們將 不需要工作。如果你想找一份工作來滿足個人需求,你可以找一份工作,但人工智慧將能夠做一切。 」
“這是否會讓人們感到舒適還不清楚,未來的挑戰之一將是我們如何找到生活的意義。”

馬斯克最近在監管方面發表了新的看法,他認為:「儘管監管確實很煩人,但是多年來我們已經認識到,有仲裁是一件好事。」

他建議成立一個中立的「第三方裁判」機構來監督AI公司的開發活動,以便及時發現領先的AI公司的活動趨勢和潛在問題

制定有效的人工智慧監管規則需要對其發展有深入了解,因此,他並不擔心在沒有充足理解的情況下過早制定相關規則

關於政府應該採取哪些措施來「管理和減輕」人工智慧的風險時,馬斯克確認需要政府乾預,並表示他不同意「不到 1% 的監管」。

馬斯克在過去的十年裡一直在警告人工智慧可能對人類的生存構成威脅。在全球範圍內人工智慧潮流席捲而至之際,今年七月,馬斯克宣布他正在組建xAI團隊,旨在「理解現實」。他曾表示:「從人工智慧安全的角度來看,一個具有最大好奇心、試圖理解宇宙的人工智慧將對人類有利。」

馬斯克和蘇納克一致認為,可能需要實體「開關」來防止機器人以危險的方式失控,並參考了《魔鬼終結者》系列電影和其他科幻電影。蘇納克說:「所有這些具有相同情節的電影基本上都以人關掉它而結束。」

會上,蘇納克也警告說,AI可能會給人類帶來與核戰規模相當的風險。他對先進的AI模型對公眾帶來的風險感到擔憂。

“開發這項技術的人們已經提出了AI可能帶來的風險,重要的是不要對此過於危言聳聽。關於這個話題存在爭議。業內人士對此看法並不一致,我們也無法確定。”
「但有理由相信,它可能會帶來與大流行病和核戰規模相當的風險,這就是為什麼,作為領導人,我們有責任採取行動,採取措施保護人民,這正是我們正在做的事情。”

《布萊切利宣言》

此前一天,在這場人工智慧安全高峰會上,英國政府公佈了《布萊切利宣言》。

全球首個人工智慧協議已經得到來自28個國家和地區的代表簽署通過,這些國家包括中國、印度、美國和歐盟等。該協議旨在解決前沿人工智慧模型可能面臨的失控和濫用的風險,並警告人工智慧可能造成「災難性」傷害

關於AI監管,馬斯克再搖旗吶喊”,蘇納克也發出警告!

AI的宣言指出,它為全球帶來了巨大的機會。 AI有著改變或增強人類福祉、和平與繁榮的潛力。同時,AI也帶來了重大的風險,甚至在日常生活領域也是如此

“所有問題都至關重要,我們確認解決它們的必要性和緊迫性。”

許多AI所帶來的風險本質上屬於國際性問題,因此最好透過國際合作來解決

“為了實現這一點,我們申明,為了所有人的利益,AI應該以安全、以人為本、值得信賴和負責任的方式設計、開發、部署和使用。”

聲明指出,鼓勵所有相關方針對潛在的有害能力和可能帶來的相關影響,制定適合具體情況的計劃,並提供透明度和問責制。特別是要防止濫用和控制問題以及其他風險的擴大

在合作的背景下,宣言重點關注兩個要點:一、識別共同關注的AI安全風險,建立針對它們的科學和基於證據的“認識理解”,並在能力不斷增強的情況下維持這種認識理解,以更廣泛的全球方法來了解AI對我們社會的影響。

二、各國應制定以風險為基礎的政策,並相互合作。 「為了推進這項議程,我們決心支持一個具有國際包容性的前沿人工智慧安全科學研究網絡,以加深對尚未完全了解的人工智慧風險和能力的理解。」

據悉,下一屆人工智慧安全高峰會將於 2024 年由韓國和法國主辦。

以上是關於AI監管,馬斯克再'搖旗吶喊”,蘇納克也發出警告!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除