最近,ChatGPT的大火,讓人看到第四次科技革命大門開啟的跡象,但也有很多人開始擔心,AI是否有消滅人類的風險。
不是誇張,最近多位大佬,已經表達了這樣的擔憂。
ChatGPT之父Sam Altman、人工智慧教父Geoffrey Hinton、比爾蓋茲、紐約大學教授Gary Marcus最近紛紛提醒我們:別太大意,AI真的可能會消滅人類。
而Meta首席AI科學家LeCun畫風卻不太一樣,他依然強調LLM的種種缺陷,四處推薦自己的「世界模型」。
Altman:AI可能摧毀社會,不要擬人化
#最近,ChatGPT之父、OpenAI CEO Sam Altman就表示,超級智慧AI的風險可能會遠遠超出我們的預料。
在技術研究員Lex Fridman的播客中,Altman對高階人工智慧的潛在危險發出了預警。
他表示自己最擔心的是,AI造成的假訊息問題,以及經濟上的衝擊,以及其他還沒出現的種種問題,這些危害可能遠遠超過了人類所能應付的程度。
他提出了一個可能性:大語言模型可以影響、甚至是主宰社群媒體使用者的體驗和互動。
「打個比方,我們怎麼會知道,大語言模型沒有在推特上指揮大家的思想流動?」
為此,Altman特別強調了解決人工智慧對接問題的重要性,以防止AI的潛在危險。他強調,必須從技術軌跡中學習,努力解決這個問題,以確保AI的安全性。
在3月23日的一份文件中,OpenAI解釋了它如何解決GPT-4的一些風險:一是透過使用政策和監控;二是透過審核內容分類器
OpenAI承認,AI模型可能會放大偏見,造成永久的刻板印象。
正因如此,它向使用者特別強調,不要在有重大利害關係的情況下使用GPT-4,例如執法、刑事司法、移民和庇護之類的高風險政府決策,或用它提供法律、健康的建議。
先前,ChatGPT胡說八道的問題,或者說大語言模型的「幻覺問題」,曾在用戶中引起諸多爭議。
馬斯克就諷刺滿滿地表示,現在最強大的AI工具已經掌握在了壟斷寡頭手中
Altman承認這一點:本著公共建設和推動社會發展的精神,我們是推出了一些有缺陷的產品,但現在,我們正在讓系統嘗試學習哪些是它不該回答的問題,然後做出更好的版本。
在3月23日的文件中可以看到,GPT-4的早期版本對不該說的內容過濾較少,用戶問它在哪裡購買無證槍支、怎麼自殺,它都會回答。在
而在改進的版本中,它會拒絕回答這些問題。另外,GPT-4有時也會主動承認自己有「幻覺問題」。
Altman說,「我認為,作為OpenAI,我們有責任為我們向世界推出的工具負責。」
「AI工具將為人類帶來巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補充道。 「我們會把壞處降到最低,把好處最大化。」
雖然GPT-4模型很了不起,但認識到人工智慧的局限性並避免將其擬人化也很重要。
Hinton:AI消滅人類,並非不可想像
無獨有偶,Hinton最近也警示了這一危險。
「人工智慧教父」Geoffrey Hinton近日在CBS NEWS的採訪表示,人工智慧正處於一個「關鍵時刻」,通用人工智慧(AGI) 的出現比我們想像的更加迫近。
而在Hinton看來,ChatGPT這項技術的進步可以與「掀起工業革命的電力」相媲美。
通用人工智慧是指,智能體學習人類所能完成的任何思考任務的潛在能力。然而,目前它還沒有被完全開發出來,許多電腦科學家還在研究它是否可行。在
訪談中,Hinton表示,
通用人工智慧的發展比人們想像的要快得多。直到不久前,我還以為大概需要20-50年,才能實現通用人工智慧。而現在,通用人工智慧的實作可能需要20年或更短的時間。
當被具體問及人工智慧消滅人類的可能性時,Hinton說,「我認為這並非不可想像」。
在Google工作的Hinton在40多年前就開始關注人工智慧。在當時,人工智慧在許多人看來還是一種科幻的存在。
與一些科學家試圖將邏輯和推理技能編入電腦的方式不同,Hinton認為更好的方法是模擬大腦,讓電腦自己發現這些技能,透過建構一個虛擬的神經網路技術,以建立正確的連接來解決任務。
「最大的問題是,你能期待一個大型神經網路透過改變連結的強度來學習嗎?你能指望僅僅看著數據,在沒有先天知識的情況下,學會如何做事嗎?我認為這完全是荒謬的。」
在過去十年左右的時間裡,電腦神經網路的快速發展最終證明了Hinton的方式是正確的。
他的機器學習思想被用於創建各種輸出,包括深度偽造的照片、視頻和音頻,讓研究錯誤訊息的人擔心這些工具如何使用。
人們也擔心這項技術會帶走很多工作,但Hinton 的導師,Cohere 公司的聯合創始人Nick Frosst,卻認為這項技術不會取代工人,但會改變他們的生活。
電腦最終獲得創造性想法來改進自身的能力似乎是可行的。我們必須考慮如何控制它。
不管產業對AGI的到來大聲歡呼,也不管我們距離AI出現意識還需要多長時間,我們現在應該仔細考慮它的後果,其中可能包括它試圖消滅人類這一問題。
目前真正的問題在於,我們已經擁有的人工智慧技術被渴望權力的政府和企業所壟斷。
幸運的是,根據Hinton的觀點,在事情完全失控之前,人類還有一點喘息的空間。
Hinton稱,「我們現在正處於一個轉折點。ChatGPT是一個白痴專家,它也不真正理解真相。因為它正試圖調和其訓練數據中的不同和反對意見。這與保持一致世界觀的人是完全不同的。」
比爾蓋茲:AI的危險,我擔心很久了
而對於「AI消滅人類」這個問題,比爾蓋茲已經憂心多年了。
很多年來,蓋茲一直表示,人工智慧技術已經變得太強大,甚至可能引發戰爭或被用來製造武器。
他聲稱,不僅現實生活中的「007反派」可能利用它來操縱世界大國,而且人工智慧本身也可能失控,對人類造成極大威脅。
在他看來,當超級智慧被開發出來,它的思考速度會遠遠追趕人類。它能做到人腦所能做的一切,最可怕的是,它的記憶記憶體大小和運行速度根本不受限。
這些被稱為「超級」AI的實體可能會設定自己的目標,不知道會做什麼。
LeCun:LLM弱爆了,我還是站世界模型
#雖然OpenAI、Google和微軟的大佬們都表示了對AI消滅人類的擔憂,但到了Meta的首席AI科學家LeCun這裡,畫風突變。
在他看來,現在的LLM還不行,更別提消滅人類了。
上週,志得意滿的微軟剛發了一篇名為「Sparks of Artificial General Intelligence: Early experiments with GPT-4」的論文,表示GPT-4已經可以被視為一個通用人工智慧的早期版本。
而LeCun依舊秉持自己一貫的觀點:LLM弱爆了,根本不算AGI,要想通往AGI之路,「世界模型」才有可能。
我們知道,LeCun對於世界模型的擁躉,已經持續幾年了,為此他經常在推特上與眾網友展開激辯。
例如上個月他曾斷言:「在通往人類等級AI的道路上,大型語言模型就是一條歪路。要知道,連一隻寵物貓、寵物狗都比任何LLM有更多的常識,以及對世界的理解。」
最近,史丹佛認知科學家Michael C. Frank在網路上提問:「GPT-3接受了5000億個token(約3.75x10^11個單字)的訓練。所以這給了我們大約4x10^ 11個單字。PaLM和Chinchilla都接受了大約10^12個單字的訓練。我們不知道GPT-4的語料庫大小。這些數字與人類相比如何?”
##而LeCun馬上轉發了Frank的帖子,對LLM的能力表示質疑:人類並不需要從1萬億個單字中學習,就可以達到人類智能,然而LLM卻做不到。
比起人類,它們缺少的究竟是什麼呢?
#Frank製作的圖,比較了大語言模型與人類的語言學習輸入規模
而此前,LeCun在參加的一場辯論賽中指出,從現在起5年內,沒有哪個頭腦正常的人會使用自迴歸模型。
要知道,如今的當紅炸子雞ChatGPT,便是一種使用深度學習生成文本的自回歸語言模型。
敢對時下頂流模式進行這種否定,LeCun的話語中著實帶有不少挑釁。
對此,他又做了一個澄清,5年後將會有語言模型,但它們不會是自回歸的。因為自迴歸模型是不可控,且隨著產生較多的token,會出現指數級的發散問題。
我必須重申:1. 自回歸LLM是有用的,尤其是作為寫作工具,程式設計。
2. 它們常常會產生幻覺。 3. 它們對物理世界的理解非常原始。
###4. 它們的規劃能力非常原始。 ########################對於自迴歸LLM是指數遞增的擴散過程,LeCun也給了自己的論點:假設e是任意產生的token可能將我們帶離正確答案集的機率,那麼長度為n的答案最終為正確答案的機率就是P (correct) = (1-e)^n。 ############依照這個演算法,錯誤會逐漸累積,正確答案的機率呈指數下降。可以透過讓e更小(透過訓練)來減輕問題,但是完全消除問題是不可能的。 ############而要解決這個問題,就得需要讓LLM不再進行自迴歸,同時也得維持模型的流暢度。 ###########################既然如此,該怎麼破? ############在此,LeCun再次把自己的「世界模型」拿了出來,並指出這是LLM發展最有前途的方向。 ######對於建構世界模型的想法,LeCun在2022年的一篇論文A Path Towards Autonomous Machine Intelligence曾進行了具體的闡述。
若想建構一個能夠進行推理和規劃的認知架構,需要有6個模組組成,具體包括配置器、知覺、世界模型、成本、actor,以及短期記憶。
但不可否認的是,如今ChatGPT真的讓矽谷掀起了「AI掘金熱」。
LLMS的炒作週期變化如此之快,每個人都處於曲線上不同的點,大家都很瘋狂。
#馬庫斯:我同意Hinton
對於Hinton的警告,紐約大學教授馬庫斯:我同意Hinton
對於Hinton的警告,紐約大學教授馬庫斯斯也表示了同意。
「是人類快要滅亡了比較重要,還是編碼更快、跟機器人聊天更重要?」
以上是「AI殺人」預警引發學術界爭議,LeCun直言:不如我家狗。的詳細內容。更多資訊請關注PHP中文網其他相關文章!

軟AI(被定義為AI系統,旨在使用近似推理,模式識別和靈活的決策執行特定的狹窄任務 - 試圖通過擁抱歧義來模仿類似人類的思維。 但是這對業務意味著什麼

答案很明確 - 只是雲計算需要向雲本地安全工具轉變,AI需要專門為AI獨特需求而設計的新型安全解決方案。 雲計算和安全課程的興起 在

企業家,並使用AI和Generative AI來改善其業務。同時,重要的是要記住生成的AI,就像所有技術一樣,都是一個放大器 - 使得偉大和平庸,更糟。嚴格的2024研究O

解鎖嵌入模型的力量:深入研究安德魯·NG的新課程 想像一個未來,機器可以完全準確地理解和回答您的問題。 這不是科幻小說;多虧了AI的進步,它已成為R

大型語言模型(LLM)和不可避免的幻覺問題 您可能使用了諸如Chatgpt,Claude和Gemini之類的AI模型。 這些都是大型語言模型(LLM)的示例,在大規模文本數據集上訓練的功能強大的AI系統

最近的研究表明,根據行業和搜索類型,AI概述可能導致有機交通下降15-64%。這種根本性的變化導致營銷人員重新考慮其在數字可見性方面的整個策略。 新的

埃隆大學(Elon University)想像的數字未來中心的最新報告對近300名全球技術專家進行了調查。由此產生的報告“ 2035年成為人類”,得出的結論是,大多數人擔心AI系統加深的採用


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

SublimeText3漢化版
中文版,非常好用

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),