作者 | 雲昭
一開始據說是本週四發布,結果en~~週三凌晨就發布了,果真,OpenAI向來喜歡提前給人們製造驚喜!
#廢話不多說,先上GPT4的硬技能。
首先,是長文本處理的能力,OpenAI官網上是這麼描述的:「GPT4 能夠處理超過25,000個單字的文本,允許使用長格式內容創建、擴展對話以及文件搜尋分析等用例。」
OpenAI怕大家不能很形象的理解,乾脆用一篇維基百科的長文舉了個例子,這個文本有多長呢?小編實際點開了連結(見下圖),比目前ChatGPT(GPT3.5)能處理的文字長出一倍。不信的朋友可以去這個連結:https://en.wikipedia.org/wiki/Rihanna看一看實際長度。
對於文字對話任務,兩者表現幾何? OpenAI官方是這樣說的。
在隨意的交談中,GPT3.5和GPT4之間的差異可能很細微。當任務的複雜性達到足夠的閾值時,差異就會顯現出來。 GPT4比GPT3.5更可靠、更有創造力,並且能夠處理更細微的指令。
GPT4的上下文長度為8192個令牌。 OpenAI還提供了對32768上下文(約50頁文本)版本gpt-4-32k的有限訪問,該版本也將隨著時間的推移自動更新(當前版本gpt-4-22k-0314,也支援到6月14日)。定價為每1K提示令牌0.06美元,每1K完成令牌0.12美元。
OpenAI仍在改進長期環境下的模型質量,並希望得到有關它在的用例中表現如何的反饋。 OpenAI根據容量以不同的速率處理8K和32K引擎的請求,因此可以在不同的時間存取它們。
第二個,對影像的辨識能力:接受影像作為輸入。
GPT4可以接受文字和圖像的提示,這與純文字設定並行,允許使用者指定任何視覺或語言任務。具體來說,它會產生文字輸出(自然語言、程式碼等),給定由穿插的文字和圖像組成的輸入。在一系列領域,包括帶有文字和照片的文檔、圖表或螢幕截圖,GPT4表現出與純文字輸入類似的功能。此外,它還可以透過為純文字語言模型開發的測試時間技術來增強,包括少量鏡頭和思維鏈提示。遺憾的是,影像輸入仍只是研究預覽階段,暫時沒有公開。
(問題和答案都是英文:為了方便理解,已翻譯為中文)
#圖片上給了一些食材,問GPT4可以依照圖片上的食材做哪些美食。可以看出GPT4正式跨界了!
第三個,更可靠的推理能力。
GPT4較之前的模型,更具創造性和協作性。它不僅能夠完成許多創意和基礎寫作,還能創作歌曲、劇本,重要的是還能學習使用者的寫作風格。
關於推理能力這塊,OpenAI也給了一個讓GPT4預定會議室的例子:
問題大致上是這樣的:三個人在每一天的空閒時間不一樣,讓GPT找出一個30分鐘會議的合適時間。
可以看出ChatGPT的邏輯想法和文字分析的都沒毛病,但給的答案全錯。而GPT4則給了正確的答案。
GPT4還有一個更強的BUFF,讓它參加考試,會碾壓不少學霸!而ChatGPT則是弱爆了!
在統一律師考試中取得了前10%的成績,而ChatGPT則獲得了倒數10%。
除此之外,OpenAI也給出了SAT等其他考試的排名,都比ChatGPT能扛能打!
與ChatGPT比起來,還有哪些硬貨?
GPT4的可操作性更加灵活。使用过ChatGPT的朋友都知道,如果用API提交请求的话,一般有两个消息:系统消息(规定的AI风格和角色)和用户消息(具体提出的问题)。之前的ChatGPT对于系统消息不太看重,风格、语调比较固定。
而GPT4则不然,开发人员(以及很快的ChatGPT用户)现在可以通过在“系统”消息中描述这些方向来规定他们的AI风格和任务,系统消息允许API用户在一定范围内显著自定义用户体验。OpenAI将继续在这里进行改进(尤其要知道,系统消息是“越狱”当前模型的最简单方法,即,对边界的遵守不再那么死板),OpenAI也非常鼓励让他们知道用户想要尝试这些ideas。
还有对多语种的支持能力也更强。测试的26种语言当中,有24种要比GPT3.5和其他的语言模型的精确度都要强。
小编瞪大眼睛瞅来瞅去,也没有看见中文。果断就去找了相关中文测试的效果究竟如何,结果呵呵了。不仅速度慢,一样也是给出了错误的答案!
ChatGPT有没有比GPT4领先的地方?
有!那就是生成文本的速度,GPT4生成答案的速度明显慢于ChatGPT。看来能力越强,回答问题就会越慎重!
第一个例子是:餐巾纸上的草图都能让GPT4魔法一样生成个网页图!
图源:推特
真实例子,推特上一位用户将一张餐巾纸上的草纸图拍完照后,交给GPT4,结果真的变成一张功能齐全的html/css/JavaScript网站。
网友惊呼:这模型竟然能够阅读和解释餐巾纸上写的任何内容!
还有位网友脑洞大开:那是不是基于GPT4的应用程序,将我的书面处方变成药剂师可以实际阅读的东西,就可以成为下一个美国生物技术亿万富翁。
第二个例子:用GPT4重建游戏。
一位叫Pietro的用户在60s内重建了Pong游戏,而且分数还不错。
图源:推特
图源:推特
GPT4由于其广泛的通用知识和解决问题的能力,可以更准确地解决难题。GPT4的创造性恐怖如斯。
GPT4虽然能力比ChatGPT更强,但局限性依旧与早期GPT模型相似。最重要的是,它仍然不完全可靠(它依旧会编造事实,并会犯推理错误)。在使用语言模型输出时,尤其是在高风险上下文中,应非常小心,使用与特定用例需求匹配的精确协议(如人工审查、附加上下文基础或完全避免高风险使用)。
在OpenAI的内部对抗性真实性评估中,GPT4的得分比我们最新的GPT3.5高40%。也就是说,即便GPT4生成的答案更准确,但也只是比GPT4更加可信了40%而已!
ChatGPT Plus用户可以从chat.openai.com上获得GPT4访问权限。同时,OpenAI将根据实际需求和系统性能调整确切的使用上限,但OpenAI预计会产生严重的容量限制(尽管OpenAI将在未来几个月内进行扩展和优化)。
根据OpenAI看到的流量模式,OpenAI可能会为更高容量的GPT4使用量引入新的订阅级别;OpenAI还希望在某个时候提供一些免费的GPT4查询,这样那些没有订阅的用户也可以尝试。
要访问GPT-4 API(它使用与GPT-3.5-turbo相同的ChatCompletions API),还需要注册OpenAI的等待名单。
OpenAI從今天開始,將邀請一些開發商,並逐步擴大規模,以平衡容量和需求。如果是有社會影響的研究人員,也可以透過OpenAI的研究人員准入計畫申請使用。
OpenAI在內部使用GPT4,對支援、銷售、內容管理和程式設計等功能產生了巨大影響。 OpenAI也使用它來幫助人類評估人工智慧輸出,開始OpenAI對齊策略的第二階段。
OpenAI期待GPT4透過為許多應用程式提供動力,成為改善人們生活的寶貴工具。還有很多工作要做,OpenAI期待著透過社區建設的集體努力來改進這個模式,探索並為這個模式做出貢獻。小編注意到OpenAI已經和一家虛擬志工工具的公司達成合作。
Be My Eyes的合作夥伴。透過世界各地的事實影片將需要視力支持的人與志工和住院者和公司聯繫起來。
簡化低視力人群的任務
#借助Be My Eyes應用程序,可以支援視障人群並幫助他們實現獨立。盲人或低視力使用者可能需要的支援包括:檢查有效期限、區分顏色、閱讀說明或在新環境中導航。
OpenAI稱GPT4是努力擴展深度學習的最新里程碑。 GPT4作為一個大型多模態模型(接受圖像和文字輸入,發出文字輸出),在各種專業和學術基準上表現出人類水準的表現。
雖然跟我們先前所做的多模態能力預測(文字、圖像、音訊、視訊等輸入)有較大的差距,但可以看出GPT模型的演進在紮實推進,尤其是通用知識的理解能力和更難問題的處理上,著實驚艷到了!
#以上是AI大比拼:GPT4和ChatGPT能否幫助我們創造更好的中文網站?的詳細內容。更多資訊請關注PHP中文網其他相關文章!