Maison  >  Article  >  Périphériques technologiques  >  Zhipu AI lance le modèle de base ChatGLM3 de troisième génération avec une percée complète en termes de performances

Zhipu AI lance le modèle de base ChatGLM3 de troisième génération avec une percée complète en termes de performances

PHPz
PHPzavant
2023-10-27 20:45:05670parcourir

Le 27 octobre 2023, Zhipu AI a lancé le modèle de base de troisième génération entièrement développé ChatGLM3 et les séries de produits associées lors de la China Computer Conference (CNCC) 2023. Une autre avancée majeure après le modèle de dialogue Block ChatGLM et ChatGLM2. Le ChatGLM3 lancé cette fois adopte une méthode originale de pré-formation améliorée en plusieurs étapes pour rendre la formation plus complète. Les évaluations montrent que dans 44 tests d'ensembles de données publiques en chinois et en anglais, ChatGLM3 s'est classé premier parmi les modèles nationaux de même taille. Zhang Peng, PDG de Zhipu AI, a lancé un nouveau produit sur place et a présenté les dernières fonctionnalités du produit en temps réel.

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

Nouvelle mise à niveau technologique ChatGLM3 avec des performances supérieures et un coût inférieur

Avec des données de formation plus riches et de meilleures solutions de formation, les performances de ChatGLM3 lancée par Zhipu AI sont encore plus puissantes. Par rapport à ChatGLM2, MMLU est augmenté de 36 %, CEval est augmenté de 33 %, GSM8K est augmenté de 179 % et BBH est augmenté de 126 %.

Dans le même temps, ChatGLM3 vise GPT-4V et a mis en œuvre des mises à niveau itératives de plusieurs nouvelles fonctions, notamment CogVLM avec des capacités de compréhension multimodale - sémantique de reconnaissance d'image, qui a atteint SOTA sur plus de 10 ensembles de données d'évaluation graphique standards internationaux ; code Le module amélioré Code Interpreter génère du code et l'exécute en fonction des besoins de l'utilisateur, accomplissant automatiquement des tâches complexes telles que l'analyse des données et le traitement des fichiers ; l'amélioration de la recherche sur le réseau L'amélioration de la recherche par accès WebGLM peut rechercher automatiquement des informations pertinentes sur Internet en fonction de questions et fournir références pertinentes lors de la réponse. Liens vers la littérature ou les articles. Les capacités sémantiques et logiques de ChatGLM3 ont été considérablement améliorées.

ChatGLM3 intègre également la technologie AgentTuning auto-développée, qui active les capacités de l'agent modèle, notamment en termes de planification et d'exécution intelligentes, qui est 1000 % améliorée par rapport à ChatGLM2 et permet également aux grands modèles nationaux de prendre en charge nativement les appels d'outils et l'exécution de code ; , jeux, opérations de base de données, recherche et raisonnement de graphiques de connaissances, systèmes d'exploitation et autres scénarios complexes.

De plus, ChatGLM3 lance cette fois les modèles de test final ChatGLM3-1.5B et ChatGLM3-3B qui peuvent être déployés sur les téléphones mobiles. Ils prennent en charge une variété de téléphones mobiles et de plates-formes montées sur véhicule, notamment Vivo, Xiaomi et Samsung, et même. prend en charge l'inférence des puces CPU sur les plates-formes mobiles. La vitesse peut atteindre 20 jetons/s. En termes de précision, les performances des modèles 1,5B et 3B sont proches de celles du modèle ChatGLM2-6B sur les benchmarks publics.

Basé sur la dernière technologie efficace d'inférence dynamique et d'optimisation de la mémoire, le cadre d'inférence actuel de ChatGLM3 dans les mêmes conditions matérielles et de modèle, comparé à la meilleure implémentation open source actuelle, y compris vLLM lancé par l'Université de Berkeley et la dernière version de Hugging Face à TGI, inférence La vitesse est augmentée de 2 à 3 fois et le coût d'inférence est doublé. Il n'est que de 0,5 point pour mille jetons et le coût est le plus bas.

La nouvelle génération de "Zhipu Qingyan" est lancée, la première capacité d'interaction de code en Chine

Grâce au ChatGLM3 récemment mis à niveau, l'assistant d'IA générative Zhipu Qingyan est devenu le premier produit grand modèle (Code Interpreter) en Chine avec des capacités d'interaction de code (https://chatglm.cn/main/code).

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

La fonction « code » prend actuellement en charge le traitement d'images, les calculs mathématiques, l'analyse de données et d'autres scénarios d'utilisation. Les éléments suivants sont :

§ Traiter les données pour générer des graphiques

§ Code pour dessiner des graphiques

§ Télécharger l'analyse du code SQL

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

Avec l'ajout des capacités de grand modèle WebGLM, Zhipu Qingyan dispose également de capacités d'amélioration de la recherche, qui peuvent aider les utilisateurs à trier la littérature en ligne ou les liens d'articles pour des questions connexes et à fournir directement des réponses.

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

Le modèle CogVLM précédemment publié a amélioré les capacités de compréhension d'images et de textes chinois de Zhipu Qingyan et a atteint des capacités de compréhension d'images proches de GPT-4V. Il peut répondre à divers types de questions visuelles et effectuer une détection de cible complexe et l'étiqueter pour compléter l'annotation automatique des données.

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

Depuis début 2022, les modèles de la série GLM lancés par Zhipu AI prennent en charge la pré-formation et l'inférence à grande échelle sur les architectures Ascend, Sunway Supercomputing et Haiguang DCU. Jusqu'à présent, les produits de Zhipu AI ont pris en charge plus de 10 écosystèmes matériels nationaux, notamment Ascend, Sunway Supercomputer, Haiguang DCU, Haifeike, Muxixiyun, Computing Technology, Tianshu Intelligent Core, Cambrian et Moore Thread, Baidu Kunlun Core, Lingxi Technology, Great. Mur Chaoyun, etc. Grâce à l'innovation conjointe avec les sociétés nationales de puces, l'optimisation continue des performances aidera les grands modèles natifs nationaux et les puces nationales à entrer le plus rapidement possible sur la scène internationale.

智谱AI推出第三代基座大模型ChatGLM3 性能全面突破

Le ChatGLM3 et les séries de produits associées lancées par Zhipu AI ont considérablement amélioré les performances de son modèle, créé un écosystème open source plus ouvert pour l'industrie et abaissé encore le seuil permettant aux utilisateurs ordinaires d'utiliser les produits AIGC. L’IA nous fait entrer dans une nouvelle ère, et les grands modèles vont certainement accélérer l’arrivée de ce moment.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer