搜尋
首頁科技週邊人工智慧GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

OpenAI的共同創辦人Greg Brockman和首席科學家Ilya Sutskever評價GPT-4的效能,並對安全問題和開源的爭議進行解釋。

毫無疑問,GPT-4一發布,就引爆了整個業界和學界。

憑藉著自己強大的推理和多模態能力,引發了一眾熱議。

然鵝,GPT-4不是一個open的模型。

雖然OpenAI分享了大量GPT-4的基準和測試結果,但基本上沒有提供用於訓練的資料、成本、或用於創建模型的方法。

當然了,這樣的「獨家秘笈」OpenAI肯定不會公佈了。

馬庫斯直接拿出當初OpenAI的初衷,發文嘲諷了一波。

GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

網友改進了一個版本。

人無完人,GPT-4也是

當OpenAI的總裁、聯合創始人之一Greg Brockman將GPT-4和GPT-3進行比較時,他說了一個詞——不同。

「它只是不同而已,模型仍然有很多問題和錯誤......但你真的可以看到它在微積分或法律等方面的技能提升。在某些領域,它從表現非常糟糕進化到現在足以匹敵人類。」

GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

GPT-4的測試結果很不錯:在AP微積分BC考試中,GPT-4得了4分,而GPT-3得了1分。在模擬的律師考試中,GPT-4以大約前10%考生的分數通過;GPT-3.5的分數徘徊在後10%。

在上下文能力,也就是說在生成文本之前可以記憶的文本方面,GPT-4大約能夠記住50頁左右的內容,是GPT-3的8倍。

在提示方面,GPT-3和GPT-3.5只能接受文字提示:「寫一篇關於長頸鹿的文章」,而多模態的GPT-4可以接受圖片和文字的提示:給出一張長頸鹿的圖片,提示問「這裡有多少隻長頸鹿?」這些GPT-4都能答對,而且它的讀梗能力也很強!

我們之前錯了,開源並不明智

而強到離譜的GPT-4一發布,便引起了大量研究人員和專家的興趣。但令人失望的是,OpenAI發布的GPT-4,不是「Open的AI模型。」

儘管OpenAI分享了大量GPT-4的基準、測試結果和有趣的演示,但基本上沒有提供用於訓練該系統的數據、能源成本或用於創建它的特定硬體或方法的相關資訊。

之前Meta的LLaMa模型外洩的時候,就引發一波關於開源的討論。不過,這次大家對於GPT-4封閉模型的最初反應是大部分都是負面的。

GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

人工智慧社群普遍認為,這不僅破壞了OpenAI作為研究機構的創始精神,也讓其他人難以製定保障措施來應對威脅。

Nomic AI的資訊設計副總裁Ben Schmidt表示,由於無法看到GPT-4是在什麼資料上訓練的,大家很難知道該系統在什麼地方是安全使用的,並提出修復方案。

「為了讓人們知道這個模型什麼地方不起作用,OpenAI需要更了解GPT-4所做的事情以及其中的假設。我可不會在下雪的時候,相信一個沒有在雪在地氣候情況下訓練出來的自動駕駛汽車。因為很可能,漏洞和問題只在真實使用的時候才會浮現。」

對此,OpenAI的首席科學家兼聯合創始人Ilya Sutskever解釋稱:OpenAI不分享更多關於GPT-4的資訊是因為害怕競爭,也是因為對安全的擔憂,這一點是毋庸置疑的。

「外面的競爭很激烈,GPT-4的開發並不容易。幾乎所有的OpenAI的員工在一起工作了很長時間才生產出這個東西。從競爭的角度來看,有很多很多公司都想做同樣的事情,而GPT-4像是個成熟的果實。」

眾所周知,OpenAI在2015年成立之初是一個非營利組織。其創始人包括Sutskever、現任執行長Sam Altman、總裁Greg Brockman以及現已離開OpenAI的馬斯克。

Sutskever等人曾表示,該組織的目標是為每個人創造價值,而不是單單為股東創造價值,並表示將與該領域的各方進行「自由合作」。

然而,為了獲得數十億美元的投資(主要來自微軟),OpenAI還是被加蓋了一層商業屬性。

不過,當被問及為什麼OpenAI改變了分享其研究的方法時,Sutskever簡單地回答:

「我們錯了。在某個時候,AI/AGI將變得極其強大,那時,開源就是沒有意義的。可以預料的是,在幾年內,每個人都會完全明白,開源人工智慧是不明智的。因為這個模型是非常有力的。如果有人想,用它就能夠造成巨大的傷害,這將是相當容易的。所以隨著模型的能力越來越高,不想披露它們是有道理的。」

Lightning AI的執行長和開源工具PyTorch Lightning的創建者William Falcon從商業角度解讀稱:「作為一家公司,你完全有權利這樣做。」

#安全風險

同時,Brockman也認為GPT-4的應用推廣應是緩慢推進的,因為OpenAI正在評估風險和利益。

「我們需要解決一些政策問題,如臉部辨識和如何對待人的圖像,我們需要弄清楚,危險區在哪裡,紅線在哪裡,然後慢慢澄清這些點。」

還有就是老生常談的,GPT-4被用來幹壞事的風險。

以色列網路安全新創公司Adversa AI發表了一篇博文,展示了繞過OpenAI的內容過濾器,讓GPT-4生成釣魚郵件、生成對同性戀者的性描述等讓人高度反感的文本的方法。

因此,很多人都希望GPT-4在審核方面帶來重大改進。

GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

針對這一點,Brockman強調,他們花了很多時間試圖了解GPT-4的能力,而該模型已經經歷了六個月的安全培訓。在內部測試中,對於OpenAI的使用政策所不允許的內容,GPT-4作出反應的可能性比GPT-3.5低82%,產生「事實性」反應的可能性高40%。

不過,Brockman並不否認GPT-4在這方面的不足。但他強調了該模型的新的緩和導向工具,稱為「系統資訊」的API級能力。

系統資訊本質上是為GPT-4的互動設定基調,並建立界限的指令。這樣,以系統資訊作為護欄,就可以防止GPT-4偏離方向。

例如,一個系統訊息的人設可能是這樣的:「你是一個總是用蘇格拉底回答問題的導師。你從不給學生答案,而是總是試圖提出正確的問題,幫助他們學會自己思考。」

新的道路

其實,從某種程度上,Sutskever也認同批評者的觀點:「如果有更多的人願意研究這些模型,我們會對它們有更多的了解,這將是好事。」

所以OpenAI出於這些原因,向某些學術和研究機構提供了訪問其係統的機會。

而且Brockman也提到了Evals,這是OpenAI新開源的軟體框架,用於評估其人工智慧模型的性能。

Evals採用的是模型測試眾包的方式,讓使用者開發和運行評估GPT-4等模型的基準,同時檢查其性能,這也是OpenAI致力於「健全」模型的標誌之一。

「透過Evals,我們可以看到用戶關心的用例,能夠以一種系統的形式進行測試。我們開源的部分原因是,我們正在從每三個月發布一個新模型轉向不斷改進新模型。當我們製作新的模型版本時,我們至少可以透過開源知道這些變化是什麼。」

#其實,關於共享研究的討論一直頗為火熱。一方面,谷歌和微軟這樣的科技巨頭正急於將人工智慧功能添加到他們的產品中,往往會將以前的道德問題擱置一邊,微軟最近就解雇了一個團隊,該團隊是專門確保人工智慧產品遵循道德準則的);另一方面;技術的迅速改善引發了人們對人工智慧的擔憂。

GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了

英國人工智慧政策負責人 Jess Whittlestone 說,平衡這些不同的壓力帶來了嚴重的治理挑戰,這意味著我們可能需要第三方監管機構參與。

「OpenAI 不分享關於GPT-4 的更多細節的出發點是好的,但也可能導致人工智慧世界的權力集中化。這些決定不應該由個別公司來做。」

Whittlestone 說:「理想的情況是,我們需要把這裡的做法編纂成冊,然後讓獨立的第三方去審查與某些模型相關的風險。」

以上是GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源並不明智,我們之前錯了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51cto。如有侵權,請聯絡admin@php.cn刪除
微軟工作趨勢指數2025顯示工作場所容量應變微軟工作趨勢指數2025顯示工作場所容量應變Apr 24, 2025 am 11:19 AM

由於AI的快速整合而加劇了工作場所的迅速危機危機,要求戰略轉變以外的增量調整。 WTI的調查結果強調了這一點:68%的員工在工作量上掙扎,導致BUR

AI可以理解嗎?中國房間的論點說不,但是對嗎?AI可以理解嗎?中國房間的論點說不,但是對嗎?Apr 24, 2025 am 11:18 AM

約翰·塞爾(John Searle)的中國房間論點:對AI理解的挑戰 Searle的思想實驗直接質疑人工智能是否可以真正理解語言或具有真正意識。 想像一個人,對下巴一無所知

中國的'智能” AI助手回應微軟召回的隱私缺陷中國的'智能” AI助手回應微軟召回的隱私缺陷Apr 24, 2025 am 11:17 AM

與西方同行相比,中國的科技巨頭在AI開發方面的課程不同。 他們不專注於技術基準和API集成,而是優先考慮“屏幕感知” AI助手 - AI T

Docker將熟悉的容器工作流程帶到AI型號和MCP工具Docker將熟悉的容器工作流程帶到AI型號和MCP工具Apr 24, 2025 am 11:16 AM

MCP:賦能AI系統訪問外部工具 模型上下文協議(MCP)讓AI應用能夠通過標準化接口與外部工具和數據源交互。由Anthropic開發並得到主要AI提供商的支持,MCP允許語言模型和智能體發現可用工具並使用合適的參數調用它們。然而,實施MCP服務器存在一些挑戰,包括環境衝突、安全漏洞以及跨平台行為不一致。 Forbes文章《Anthropic的模型上下文協議是AI智能體發展的一大步》作者:Janakiram MSVDocker通過容器化解決了這些問題。基於Docker Hub基礎設施構建的Doc

使用6種AI街頭智能策略來建立一家十億美元的創業使用6種AI街頭智能策略來建立一家十億美元的創業Apr 24, 2025 am 11:15 AM

有遠見的企業家採用的六種策略,他們利用尖端技術和精明的商業敏銳度來創造高利潤的可擴展公司,同時保持控制。本指南是針對有抱負的企業家的,旨在建立一個

Google照片更新解鎖了您所有圖片的驚人Ultra HDRGoogle照片更新解鎖了您所有圖片的驚人Ultra HDRApr 24, 2025 am 11:14 AM

Google Photos的新型Ultra HDR工具:改變圖像增強的遊戲規則 Google Photos推出了一個功能強大的Ultra HDR轉換工具,將標準照片轉換為充滿活力的高動態範圍圖像。這種增強功能受益於攝影師

Descope建立AI代理集成的身份驗證框架Descope建立AI代理集成的身份驗證框架Apr 24, 2025 am 11:13 AM

技術架構解決了新興的身份驗證挑戰 代理身份集線器解決了許多組織僅在開始AI代理實施後發現的問題,即傳統身份驗證方法不是為機器設計的

Google Cloud Next 2025以及現代工作的未來Google Cloud Next 2025以及現代工作的未來Apr 24, 2025 am 11:12 AM

(注意:Google是我公司的諮詢客戶,Moor Insights&Strateging。) AI:從實驗到企業基金會 Google Cloud Next 2025展示了AI從實驗功能到企業技術的核心組成部分的演變,

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

DVWA

DVWA

Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中