沒想到時至今日,ChatGPT竟然會犯下低階錯誤?
吳恩達大神最新開課就指出來了:
ChatGPT不會反轉單字!
例如讓它反轉下lollipop這個詞,輸出是pilollol,完全混亂。
哦豁,這確實有點大跌眼鏡。
以至於聽課網友在Reddit上發文後,立刻引來大量圍觀,貼文熱度火速衝到6k。
而且這不是偶然bug,網友們發現ChatGPT確實無法完成這個任務,我們親測結果也是如此。
#△實測ChatGPT(GPT-3.5)
#甚至包括Bard、Bing、文心一言在內等一眾產品都不行。
△實測Bard
#△實測文心一言
還有人緊跟著吐槽, ChatGPT在處理這些簡單的單字任務就是很糟糕。
例如玩先前曾經爆火的文字遊戲Wordle簡直就是一場災難,從來沒有做對過。
誒?這到底是為啥?
關鍵在於token
之所以有這樣的現象,關鍵在於token。大型模型通常使用token來處理文本,因為token是文本中最常見的字元序列。
它可以是整個單字,也可以是單字一個片段。大型模型熟悉這些 Token 之間的統計關係,並能夠熟練地產生下一個 Token。
因此在處理單字反轉這個小任務時,它可能只是將每個token翻轉過來,而不是字母。
這點放在中文語境下體現就更為明顯:一個字是一個token,也可能是一個字是一個token。
針對開頭的例子,有人嘗試了解下ChatGPT的推理過程。
為了更直覺的了解,OpenAI甚至還出了個GPT-3的Tokenizer。
例如像lollipop這個詞,GPT-3會將其理解成I、oll、ipop這三個部分。
根據經驗總結,也就誕生出這樣一些不成文法。
- 1個token≈4個英文字元≈四分之三個字;
- 100個token≈75個單字;
- 1-2句話≈30個token;
- 一段話≈100個token,1500個單字≈2048個token;
token-to-char(token到單字)比例越高,處理成本也越高。因此處理中文tokenize要比英文更貴。
可以這樣理解,token是大模型認識理解人類現實世界的方式。它非常簡單,還能大幅降低記憶體和時間複雜度。
但將單字token化有一個問題,就會使模型很難學習到有意義的輸入表示,最直觀的表示就是不能理解單字的意思。
當時Transformers有做過相應優化,例如一個複雜、不常見的單字分成一個有意義的token和一個獨立token。
就如同 "annoyingly" 被分成 "annoying" 和 "ly" 兩個部分一樣,前一個保留了其本身的意義,而後一個則更加常見。
這也成就瞭如今ChatGPT及其他大模型產品的驚艷效果,能很好地理解人類的語言。
至於無法處理單字反轉這樣一個小任務,自然也有解決之道。
最簡單直接的,就是你先自己把單字分開嘍~
#或者也可以讓ChatGPT一步一步來,先tokenize每個字母。
又或讓它寫一個反轉字母的程序,然後程式的結果對了。 (狗頭)
不過也可以使用GPT-4,實測沒有這樣的問題。
△實測GPT-4
總之,token就是AI理解自然語言的基石。
而作為AI理解人類自然語言的橋樑,token的重要性也越來越明顯。
它已經成為AI模型表現優劣的關鍵決定因素,還是大模型的計費標準。
甚至有了token文學
如前文所言,token能方便模型捕捉到更細緻的語意訊息,如詞義、詞序、語法結構等。在序列建模任務(如語言建模、機器翻譯、文字生成等)中,位置和順序對於模型的建立非常重要。
模型只有在準確了解每個token在序列中的位置和上下文情況,才能更好正確預測內容,給出合理輸出。
因此,token的品質、數量對模型效果有直接影響。
今年開始,越來越多大模型發佈時,都會著重強調token數量,例如GooglePaLM 2曝光細節中提到,它訓練用到了3.6萬億個token。
以及許多業界大佬也紛紛表示,token真的很關鍵!
今年從特斯拉跳槽到OpenAI的AI科學家安德烈·卡帕斯(Andrej Karpathy)就曾在演講中表示:
更多token能讓模型更好思考。
而且他強調,模型的效能並不只由參數規模來決定。
例如LLaMA的參數規模遠小於GPT-3(65B vs 175B),但由於它用更多token進行訓練(1.4T vs 300B),所以LLaMA更強大。
而憑藉著對模型表現的直接影響,token還是AI模型的計費標準。
以OpenAI的定價標準為例,他們以1K個token為單位進行計費,不同模型、不同類型的token價格不同。
總之,踏進AI大模型領域的大門後,就會發現token是繞不開的知識點。
嗯,甚至衍生出了token文學……
不過值得一提的是,token在中文世界裡到底該翻譯成啥,現在還沒有完全定下來。
直譯「令牌」總是有點怪怪的。
GPT-4覺得叫「詞元」或「標記」比較好,你覺得呢?
參考連結:
[1]https://www.reddit.com/r/ChatGPT/comments/13xxehx/chatgpt_is_unable_to_reverse_words/
[2]https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them
[3]https://openai.com /pricing
以上是吳恩達ChatGPT課爆火:AI放棄了倒寫單詞,但理解了整個世界的詳細內容。更多資訊請關注PHP中文網其他相關文章!

對於那些可能是我專欄新手的人,我廣泛探討了AI的最新進展,包括體現AI,AI推理,AI中的高科技突破,及時的工程,AI培訓,AI,AI RE RE等主題

歐洲雄心勃勃的AI大陸行動計劃旨在將歐盟確立為人工智能的全球領導者。 一個關鍵要素是建立了AI Gigafactories網絡,每個網絡都有大約100,000個高級AI芯片 - 2倍的自動化合物的四倍

微軟對AI代理申請的統一方法:企業的明顯勝利 微軟最近公告的新AI代理能力清晰而統一的演講給人留下了深刻的印象。 與許多技術公告陷入困境不同

Shopify首席執行官TobiLütke最近的備忘錄大膽地宣布AI對每位員工的基本期望是公司內部的重大文化轉變。 這不是短暫的趨勢。這是整合到P中的新操作範式

IBM的Z17大型機:集成AI用於增強業務運營 上個月,在IBM的紐約總部,我收到了Z17功能的預覽。 以Z16的成功為基礎(於2022年推出並證明持續的收入增長

解鎖不可動搖的信心,消除了對外部驗證的需求! 這五個CHATGPT提示將指導您完全自力更生和自我感知的變革轉變。 只需複制,粘貼和自定義包圍

人工智能安全與研究公司 Anthropic 最近的一項[研究]開始揭示這些複雜過程的真相,展現出一種令人不安地與我們自身認知領域相似的複雜性。自然智能和人工智能可能比我們想像的更相似。 窺探內部:Anthropic 可解釋性研究 Anthropic 進行的研究的新發現代表了機制可解釋性領域的重大進展,該領域旨在反向工程 AI 的內部計算——不僅僅觀察 AI 做了什麼,而是理解它在人工神經元層面如何做到這一點。 想像一下,試圖通過繪製當有人看到特定物體或思考特定想法時哪些神經元會放電來理解大腦。 A

高通的龍翼:企業和基礎設施的戰略飛躍 高通公司通過其新的Dragonwing品牌在全球範圍內積極擴展其範圍,以全球為目標。 這不僅僅是雷布蘭


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

SublimeText3漢化版
中文版,非常好用

PhpStorm Mac 版本
最新(2018.2.1 )專業的PHP整合開發工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。