Mistral-Medium竟然意外洩漏?先前僅能透過API獲得,效能直逼GPT-4。
CEO最新發聲:確有其事,繫早期客戶員工外流。但仍表示敬請期待。
圖片
換句話說,這個版本尚且還是舊的,實際版本效能還會更好。
這兩天,這個名為「Miqu」的神祕模型在大模型社群裡炸了鍋,不少人還懷疑這是LIama的微調版本。
圖片
Mistral CEO解釋說,他們對Mistral Medium進行了重新訓練,並在基於Llama 2的基礎上進行了改進。這是為了盡快向早期客戶提供接近GPT-4效能的API。預訓練工作在Mistral 7B發布當天就完成了。
如今真相大白,CEO還賣關子,不少網友在底下戳戳手期待。
圖片
圖片
我們還是重新來回顧整個事件。 1月28日,一個名叫Miqu Dev的神秘用戶在HuggingFace上發布一組文件「miqu-1-70b」。
圖片
檔案指出新LLM的「提示格式」以及使用者互動方式與Mistral相同。
同一天,4chan上一個匿名用戶發布了關於miqu-1-70b檔案的連結。
於是乎一些網友注意到了這個神祕的模型,並且開始進行一些基準測試。
結果驚人發現,它在EQ-Bench 上獲得83.5 分(本地評估),超過世界上除GPT-4之外的所有其他大模型。
一時間,網友們強烈呼籲將這個大模型加入排行榜中,並找出背後的真實模型。
大致懷疑方向主要有三:
有網友曬出了對比效果:它知道標準答案還說得過去,但不可能連俄語措辭也跟Mistral-Medium完全相同吧。
圖片
但另外的網友發現,它並不是MoE模型,且與LIama 2架構相同、參數相同、層數相同,。
圖片
不過馬上就受到其他網友的質疑,Mistral 7b也具有與 llama 7B 相同的參數和層數。
相反,這更像是Mistral早期非MoE版本模型。
圖片
不過討論來討論去,不可否認的是在不少人心中,這已經是最接近GPT-4的模型了。
圖片
如今,Mistral 聯合創始人兼首席執行官Arthur Mensch承認洩露,是他們一位早期客戶員工過於熱情,洩露了他們訓練並公開發布的一個舊模型量化版本。
至於Perplexity這邊CEO也澄清說,他們從未獲得Mistral Medium的權重。
圖片
網友擔心是否會撤下這個版本。
圖片
有趣的是,Mensch並沒有要求刪除HuggingFace上的貼文。
圖片
而是留下評論說:可能會考慮歸屬問題。
參考連結:
[1]https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/
[2] https://twitter.com/teortaxesTex/status/1752427812466593975
[3]https://twitter.com/N8Programs/status/1752441060133892503
#[4] https://twitter.com/AravSrinivas/status/1752803571035504858
以上是媲美GPT-4的開源模型洩漏! Mistral老闆剛剛證實:正式版本還會更強的詳細內容。更多資訊請關注PHP中文網其他相關文章!