首頁  >  文章  >  科技週邊  >  單次支援38萬字輸入!騰訊混元推出256k長文模型,透過騰訊雲端向企業和個人開發者開放

單次支援38萬字輸入!騰訊混元推出256k長文模型,透過騰訊雲端向企業和個人開發者開放

王林
王林原創
2024-06-08 11:11:19398瀏覽

AI大模型技術正成為推動高品質生產力發展的關鍵力量,在與千行百業的融合中發揮著重要作用。騰訊混元大模型透過採用混合專家模型 (MoE) 結構,已將模型擴展至兆級參數規模,增加容量提升預測效能的同時,推動了推理成本下降。作為通用模型,騰訊混元在中文表現上處於業界領先水平,尤其在文字生成、數理邏輯和多輪對話中表現表現卓越。

近日,騰訊混元大模型正式對外發布256k長文模型,並透過騰訊雲向廣大企業和個人開發者開放,以支持更廣泛的創新和應用。騰訊混元256k模型版本具備處理超過#38萬字符的超長文字能力。在對話應用場景中,該模型能夠記憶更多的對話內容,有效避免

## “


忘記

訊息等問題。此外,它還具備出色的上下文分析能力,能夠為對話參與者提供更精確和相關的回饋,從而輔助他們做出更明智的決策。

此外,在長文件的閱讀理解和大規模資料分析方面也展現出強大效能。它能夠為金融、醫療、教育、出行等行業的專業人士提供強有力的工作支持,顯著提高他們的工作效率。模型在推理性能上也進行了深入優化,確保了在騰訊雲等平台上的實際應用中,用戶能夠享受到更流暢和高效的使用體驗。 #減少“健忘”,讓大模型更聰明在大模型產品中,處理對話式需求是一項核心功能。但由於長文本處理能力的限制,傳統大模型在對話中容易

迷失方向或出現記憶缺失,隨著對話長度的增加,遺忘的資訊量也隨之增多。 騰訊混元256k#模型針對這項挑戰進行了專門最佳化。它採用了先進的專家混合MoE##)架構,並融合了

RoPE-NTKFlash Attention V2#等創新技術,既保持了對通用短文本(少於4,000字元)的高效處理能力,同時在長文本處理的深度和廣度上實現了突破。 目前,騰訊混元大模型已經具備256k的超長上下文理解能力,單次處理字元數超過38萬個,在經過嚴苛的


海撈針

任務測試後,模型在長文本處理上的準確率已達到

99.99%

,在國際上也處於領先地位。

持續穩定迭代,大模型應用效率提升

騰訊混元大模型在業界率先採用了混合專家模型(MoE)結構,並在此過程中累積了大量自研技術。在上一個版本32K中,該模型已顯著超越市面上的開源同類模型,並在多種應用場景中展現出優異性能。 經過全新迭代,騰訊混元256k

在通用領域的GSB評測中,相較於前一版本,勝出率50.72%。同時,騰訊混元

256k單次支援38萬字輸入!騰訊混元推出256k長文模型,透過騰訊雲端向企業和個人開發者開放

的訓練集融合了醫療、金融等多個領域的長文本數據、翻譯數據和多文檔問答等高品質標註數據,這使得模型在實際應用中,尤其是在需要頻繁分析和處理大量長文本資料的醫療和金融業,能夠提供更精準和高效的工作支援。


例如,當一份央行發布的金融報告輸入騰訊混元256k模型時,模型能夠迅速提煉和總結報告的要點,在處理速度和準確性上均達到了令人滿意的水平。

####################################推理效能最佳化,帶來更強的大模型理解能力#########

与此同时,腾讯混元256k在推理性能上进行了深入优化。在INT8精度模式下,与FP16精度相比,模型的QPM(每秒查询率)实现了23.9%的显著提升,而首字耗时仅增加了5.7%。这些改进显著增强了模型在实际应用中的响应速度和整体效率。

以《三国演义》的分析为例,腾讯混元256k能够迅速阅读并检索这部数十万字的古典小说,不仅能够准确识别出小说中的关键人物和事件情节,甚至对于天气、角色着装等细节描述也能提供精确的信息。

單次支援38萬字輸入!騰訊混元推出256k長文模型,透過騰訊雲端向企業和個人開發者開放


AI大模型作为新质生产力的关键组成部分,对推动产业升级和实现高质量发展具有至关重要的作用。腾讯混元256k模型的推出为整个行业注入了全新活力,并开拓了更广泛的应用前景。

目前,腾讯混元256k长文模型已经通过腾讯云向广大企业和个人开发者开放,用户可通过hunyuan-standard版本256k长文模型接入。这使得更多的开发者和用户能够便捷地接入并使用腾讯混元大模型的强大功能,进而为各行各业提供智能化的解决方案,推动更多创新应用场景实现。

以上是單次支援38萬字輸入!騰訊混元推出256k長文模型,透過騰訊雲端向企業和個人開發者開放的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn