首頁 >科技週邊 >人工智慧 >Sky-T1:$ 450 LLM挑戰GPT-4O&DeepSeek V3

Sky-T1:$ 450 LLM挑戰GPT-4O&DeepSeek V3

Jennifer Aniston
Jennifer Aniston原創
2025-03-10 10:20:10196瀏覽

UC Berkeley的Novasky團隊在AI世界中取得了突破性的壯舉,揭開了Sky-T1-32B-Preview,這是一種價格合理且完全開源的推理模型。 該模型可與GPT-4和O1等領先的商業模型的性能相媲美,但其培訓成本低於450美元。 這大大削弱了通常與這樣高級AI開發相關的數百萬美元的預算。

Sky-T1-32b-preiview的可訪問性是其最重要的方面。 整個項目(數據,代碼和模型權重)是公開可用的,賦予研究人員,學者和愛好者的能力

是什麼設置了SKY-T1-32B-PREVIEW?

>與許多內部運作的高性能模型不同,SKY-T1-32B-PREVIEW提供了完全透明度。 它在數學推理和編碼任務中的出色表現尤其值得注意。 >

創建Sky-t1-32b-preview:

>

開發過程涉及多個關鍵步驟:

Sky-T1: The 0 LLM Challenging GPT-4o & DeepSeek V3

嚴格的數據策劃:使用拒絕採樣等技術對數學,編碼,科學和拼圖的各種數據集進行了精心收集和精製,以確保數據質量。 數據重新格式化進一步提高了準確性。

  1. 有效的培訓:團隊使用其準備好的數據集對開源QWEN-2.5-32B模型進行了微調。 培訓過程僅在八個高端GPU上完成19個小時內完成,突出了其方法的效率。

  2. >
  3. 平衡培訓數據:

    一個關鍵的成功因素是培訓數據中的數學和編碼問題之間的仔細平衡,使模型能夠在這兩個領域中表現出色。

  4. 基準測試結果:
  5. 在各種基準中,Sky-t1-32b-preview的性能是出色的:

    >數學:
  6. 在數學500上的精度為82.4%,AIME2024的精度為43.3%,與頂級商業模型競爭。

編碼:在livecodebench-easy上得分為86.3%,證明了精通複雜的編碼任務。

  • 鍵調查結果:
  • 數據多樣性是關鍵:數學和編碼數據的平衡組合對於模型的成功至關重要。 最佳模型尺寸:
  • 實驗表明,32B參數模型是實現高級推理能力的最佳大小。

Sky-T1: The 0 LLM Challenging GPT-4o & DeepSeek V3開源推理的未來:

>

> SKY-T1-32B-PREVIEW代表著重要的一步,Novasky計劃繼續提高模型效率和準確性。 他們致力於開源開發促進了合作,並加速了該領域的進步。

資源:

    [鏈接到代碼]
  • [技術報告]
  • [模型權重]

結論: Novasky的成就挑戰了昂貴的封閉源AI開發的既定範式。 通過證明可以負擔得起,公開地創建高性能模型,它們正在民主化訪問尖端AI技術並培養更具包容性和協作的研究環境。

以上是Sky-T1:$ 450 LLM挑戰GPT-4O&DeepSeek V3的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn