Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Zhipu AI bringt das große Basismodell ChatGLM3 der dritten Generation auf den Markt, um es an mehr inländische Chips anzupassen

Zhipu AI bringt das große Basismodell ChatGLM3 der dritten Generation auf den Markt, um es an mehr inländische Chips anzupassen

WBOY
WBOYnach vorne
2023-10-30 18:05:231124Durchsuche

Die Nachricht vom 27. Oktober 2023 ist, dass Zhipu AI auf der China Computer Conference (CNCC) ein neues, selbst entwickeltes großes Basismodell der dritten Generation, ChatGLM3, und zugehörige Produktserien vorgestellt hat. Diese Veröffentlichung markiert einen großen Durchbruch für Zhipu AI nach der Einführung der 100-Milliarden-Basis-Konversationsmodelle ChatGLM und ChatGLM2

ChatGLM3 wird unter Verwendung einer originellen mehrstufigen, verbesserten Vortrainingsmethode entwickelt. Diese Methode kann das Training vollständiger machen. Den Bewertungsergebnissen zufolge belegte ChatGLM3 in 44 öffentlichen Datensatztests auf Chinesisch und Englisch den ersten Platz unter inländischen Modellen gleicher Größe. Zhang Peng, CEO von Zhipu AI, stellte auf der Pressekonferenz neue Produkte vor und demonstrierte die neuesten Produktfunktionen in Echtzeit

ChatGLM3 neues Technologie-Upgrade mit höherer Leistung und geringeren Kosten

ChatGLM3, das von Zhipu AI eingeführt wurde, ist mit umfangreicheren Trainingsdaten und besseren Trainingslösungen leistungsfähiger geworden. Im Vergleich zu ChatGLM2 stieg MMLU um 36 %, CEval um 33 %, GSM8K um 179 % und BBH um 126 %

Gleichzeitig zielt ChatGLM3 auf GPT-4V ab und hat iterative Upgrades mehrerer neuer Funktionen implementiert, darunter CogVLM mit multimodalen Verständnisfähigkeiten – Bilderkennungssemantik, die SOTA für mehr als 10 internationale Standard-Grafikauswertungsdatensätze erreicht hat; Code Das erweiterte Modul Code Interpreter generiert Code und führt ihn entsprechend den Benutzeranforderungen aus. Dabei werden komplexe Aufgaben wie Datenanalyse und Dateiverarbeitung automatisch ausgeführt. Die Erweiterung der Netzwerksuche kann anhand von Fragen automatisch nach relevanten Informationen im Internet suchen und diese bereitstellen Bitte geben Sie bei der Beantwortung relevante Referenzen an. Die semantischen und logischen Fähigkeiten von ChatGLM3 wurden erheblich verbessert.

ChatGLM3 integriert auch die selbst entwickelte AgentTuning-Technologie, die die Funktionen des Modellagenten aktiviert, insbesondere im Hinblick auf intelligente Planung und Ausführung, die im Vergleich zu ChatGLM2 um 1000 % verbessert ist; sie ermöglicht es auch inländischen großen Modellen, Toolaufrufe und Codeausführung nativ zu unterstützen , Spiele, Datenbankoperationen, Suche und Argumentation in Wissensgraphen, Betriebssysteme und andere komplexe Szenarien.

Darüber hinaus bringt ChatGLM3 dieses Mal die Endtestmodelle ChatGLM3-1.5B und ChatGLM3-3B auf den Markt, die auf Mobiltelefonen eingesetzt werden können. Sie unterstützen eine Vielzahl von Mobiltelefonen und fahrzeugmontierten Plattformen, darunter vivo, Xiaomi und Samsung Unterstützt die Inferenz von CPU-Chips auf mobilen Plattformen. Die Geschwindigkeit kann 20 Token/s erreichen. In Bezug auf die Genauigkeit liegt die Leistung der 1.5B- und 3B-Modelle bei öffentlichen Benchmarks nahe an der des ChatGLM2-6B-Modells.

Basierend auf der neuesten effizienten dynamischen Inferenz- und Speicheroptimierungstechnologie, dem aktuellen Inferenz-Framework von ChatGLM3 unter denselben Hardware- und Modellbedingungen, verglichen mit der derzeit besten Open-Source-Implementierung, einschließlich vLLM, das von der University of Berkeley eingeführt wurde, und der neuesten Version von Hugging Face TGI, Inferenz Die Geschwindigkeit wird um das 2-3-fache erhöht und die Inferenzkosten werden verdoppelt. Es beträgt nur 0,5 Punkte pro tausend Token und die Kosten sind am niedrigsten.

Dieser Inhalt dient nur als Referenz und stellt keine Anlageberatung dar. Leser sollten bei der Verwendung dieser Informationen ihr eigenes Urteilsvermögen anwenden und die Verantwortung für ihre eigenen Entscheidungen übernehmen. Diese Website ist nicht verantwortlich für Verluste, die durch die Verwendung dieser Inhalte entstehen

Dieses Konto gibt keine Aussage oder Garantie hinsichtlich der Verfügbarkeit, Genauigkeit, Aktualität, Gültigkeit oder Vollständigkeit der veröffentlichten Informationen ab und lehnt hiermit jegliche Haftung oder Konsequenzen ab, die sich aus den Informationen ergeben könnten. Nach dem Umschreiben: Dieses Konto gibt keine Zusicherungen oder Garantien hinsichtlich der Verfügbarkeit, Genauigkeit, Aktualität, Gültigkeit oder Vollständigkeit der veröffentlichten Informationen ab und übernimmt keinerlei Haftung oder Konsequenzen in dieser Erklärung

2. Dieser Account ist nicht kommerziell und gemeinnützig. Der wiedergegebene Inhalt bedeutet nicht, dass Sie mit seinen Ansichten einverstanden sind und für seine Authentizität verantwortlich sind, noch stellt er eine andere Orientierung dar. Diese Website übernimmt keine direkte oder indirekte Haftung für Ungenauigkeiten oder Fehler in den reproduzierten oder veröffentlichten Informationen.

3. Die in diesem Artikel verwendeten Informationen, Materialien, Texte, Bilder usw. stammen aus dem Internet und alle wiedergegebenen Inhalte sind mit der Quelle gekennzeichnet. Wenn Sie ein Werk finden, das Ihre geistigen Eigentumsrechte oder persönlichen Rechte verletzt, kontaktieren Sie uns bitte und wir werden es rechtzeitig ändern oder löschen

Zhipu AI bringt das große Basismodell ChatGLM3 der dritten Generation auf den Markt, um es an mehr inländische Chips anzupassen

Das obige ist der detaillierte Inhalt vonZhipu AI bringt das große Basismodell ChatGLM3 der dritten Generation auf den Markt, um es an mehr inländische Chips anzupassen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen