Maison >Périphériques technologiques >IA >Bilingue Powerhouse Exaone 3.5 établit de nouvelles normes d'IA

Bilingue Powerhouse Exaone 3.5 établit de nouvelles normes d'IA

Christopher Nolan
Christopher Nolanoriginal
2025-03-09 10:47:09791parcourir

LG AI Research dévoile Exaone 3.5: un modèle de grande langue puissant et multilingue. Cette dernière itération possède des capacités et une accessibilité d'IA améliorées, publiées en décembre 2024. ExaOne 3.5 propose trois tailles de modèle distinctes: 2,4 milliards, 7,8 milliards et 32 ​​milliards de paramètres, chacun optimisé pour des demandes de performances variables - des applications mobiles à des tâches intensives sur le calcul. Sa maîtrise bilingue en anglais et en coréen, combinée à une meilleure compréhension des instructions et à long contexte, la positionne comme un outil polyvalent dans divers secteurs.

Points d'apprentissage clés

  • Saisissez les choix d'architecture et de conception derrière ExaOne 3.5, y compris son modèle de transformateur uniquement au décodeur et les capacités de contexte étendues.
  • Explorez ses forces bilingues (anglais et coréenne) et son adaptabilité aux environnements multilingues.
  • Comprendre son processus de formation en deux étapes, en soulignant à quel point le réglage des instructions affine affine le suivi et la compréhension du contexte à long terme.
  • en savoir plus sur les méthodologies de formation avancées telles que la décontamination des données et l'optimisation directe des préférences (DPO).
  • Analyser les performances d'ExaOne 3.5 sur diverses applications réelles, le traitement à long contexte et les tâches de domaine général.

* Cet article fait partie du Blogathon de la science des données *** .

Table des matières

  • Comment fonctionnent LLMS basés sur le raisonnement?
  • Architecture du modèle ExaOne 3.5
  • Innovations architecturales dans ExaOne 3.5
  • Comprendre l'optimisation directe des préférences (DPO)
  • Le processus de décontamination des données
  • Benchmarks de performance
  • Exécuter Exaone 3.5 (7 milliards de paramètres) sur Google Colab via Olllama
  • Test de modèle avec diverses invites
  • Exemples d'application du monde réel
  • Conclusion
  • Les questions fréquemment posées

Comment fonctionnent LLMS basés sur le raisonnement?

LLMS basés sur le raisonnement, tels que ExaOne 3.5, Excel à des tâches complexes nécessitant un raisonnement logique, une résolution de problèmes et une reconnaissance de motifs. Construit sur des réseaux avancés basés sur des transformateurs, ils gèrent efficacement des données séquentielles et des contextes étendus. Formés sur des ensembles de données massifs, ils identifient les relations dans les informations, générant des réponses précises, résolvant des problèmes et suivant précisément les instructions.

Des techniques telles que le réglage fin supervisé (SFT) et l'optimisation directe des préférences (DPO) affinent leurs capacités de raisonnement de type humain sur diverses applications, de la prise de décision simple à complexe.

Bilingual Powerhouse EXAONE 3.5 Sets New AI Standards

Architecture du modèle ExaOne 3.5

ExaOne 3.5 utilise une architecture de transformateur uniquement au décodeur, une norme dans la conception LLM moderne connue pour son efficacité dans le traitement des données séquentielles. Cette architecture est optimisée pour le suivi des instructions, garantissant une compréhension et une exécution efficaces des commandes utilisateur. Les spécifications clés à travers ses trois variantes (2,4b, 7,8b et paramètres 32b) sont:

  • Longueur de contexte maximum : 32 768 jetons
  • couches : 32
  • Dimension à la main-d'œuvre : 14,336

Innovations architecturales dans ExaOne 3.5

ExaOne 3.5 intègre des améliorations architecturales importantes, améliorant son traitement de contexte étendu et garantissant des sorties précises et alignées par l'utilisateur. Ces innovations redéfinissent les normes d'efficacité et de performance dans les LLM.

Bilingual Powerhouse EXAONE 3.5 Sets New AI Standards

  • Longueur du contexte étendu : Une longueur de contexte maximale considérablement augmentée (32 768 jetons) permet un traitement efficace de textes plus grands sans sacrifier la cohérence.
  • Formation en deux étapes: ExaOne 3.5 utilise un processus de formation en deux étapes: formation générale dans le domaine suivie d'un réglage fin spécifique à la tâche pour une compréhension du contexte à long terme. La pré-formation supprime les doublons et les informations personnellement identifiables, augmentant les performances et réduisant les coûts d'infrastructure. Post-formation, SFT et DPO améliorent les instructions et l'alignement des préférences des utilisateurs.
  • Processus de décontamination: Un processus de décontamination rigoureux élimine les données biaisées de l'ensemble de formation, assurant des évaluations impartiales. Cela implique une comparaison itérative des données de formation avec les ensembles de données d'évaluation.

Comprendre l'optimisation directe des préférences (DPO)

DPO est un nouvel algorithme pour les LLM de réglage fin en les alignant directement sur les préférences humaines, en contournant les complexités de l'apprentissage traditionnel du renforcement. Contrairement à RLHF, qui nécessite une modélisation de récompense complexe, DPO simplifie le processus en utilisant une perte de classification simple pour optimiser les réponses du modèle en fonction des préférences des utilisateurs. Il en résulte un entraînement stable, efficace et en calcul léger. Notez que DPO nécessite un ensemble de données de préférence contenant des triplets (invite, réponse choisie, réponse rejetée).

Le processus de décontamination des données

La décontamination des données est un processus crucial pour améliorer la généralisation du modèle en supprimant les exemples contaminés de l'ensemble de données de formation. Les données raffinées sur le Web contient souvent des exemples de test, conduisant à des évaluations biaisées. ExaOne 3.5 utilise une méthode d'appariement au niveau de la sous-chaîne pour identifier et supprimer ces échantillons contaminés.

Ces améliorations architecturales permettent à ExaOne 3.5 d'exceller dans les applications du monde réel tout en conservant de solides performances à travers les repères.

Benchmarks de performance

Les évaluations du modèle ExaOne 3.5 sont classées en trois groupes:

  • Cas d'utilisation du monde réel: Évalue la capacité du modèle à comprendre et à répondre aux requêtes pratiques des utilisateurs.
  • Traitement à long contexte: Évalue la capacité du modèle à traiter et à extraire des informations à partir de textes étendus.
  • Tâches du domaine général: teste la compétence en mathématiques, codage et tâches basées sur les connaissances.

Bilingual Powerhouse EXAONE 3.5 Sets New AI Standards Bilingual Powerhouse EXAONE 3.5 Sets New AI Standards Bilingual Powerhouse EXAONE 3.5 Sets New AI Standards

Les résultats montrent des performances solides d'Exaone 3.5 dans les trois catégories, surpassant souvent les modèles comparables.

Exécuter Exaone 3.5 (7 milliards de paramètres) sur Google Colab via Olllama

Cette section détaille la configuration et l'interrogation du modèle Exaone 3.5 du paramètre 7B sur Google Colab en utilisant Olllama.

(Étapes 1-4: Des exemples de code pour l'installation, la configuration de l'ollama, le téléchargement du modèle et la requête sont fournis dans le texte d'origine et restent inchangés ici.)

Test de modèle avec diverses invites

(Des exemples de test du modèle avec diverses invites, y compris les tâches "aiguille dans la botte de foin" et "trace ancestrale", sont fournies dans le texte d'origine et restent inchangées ici.)

Exemples d'application du monde réel

(des exemples d'applications du monde réel, y compris le support client, l'assistance éducative et les tâches de raisonnement logique, sont fournies dans le texte d'origine et restent inchangés ici.)

Conclusion

ExaOne 3.5 représente un bond en avant significatif dans la technologie LLM, offrant trois tailles de modèle évolutives pour diverses applications. Son architecture avancée, son puissant suivi des instructions et les capacités multilingues en font un outil précieux pour les chercheurs et les entreprises. Ses fortes performances à travers les repères, associées à des pratiques de développement d'IA éthiques, solidifie sa position de LLM de premier plan.

(les principaux plats à retenir et les sections de questions fréquemment posées restent inchangées à partir du texte d'origine.)

Remarque: Les URL de l'image restent inchangées.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn