La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com
L'équipe d'auteurs de cet article est de l'Université de Stanford et l'équipe des co-premiers auteursMert Yuksekgonul, Federico Bianchi, Joseph Boen, Sheng Liu , Zhi Huang
Mert Yuksekgonul est doctorant à l'Université de Stanford, où il étudie sous la direction des professeurs James Zou et Carlos Guestrin. Les axes de recherche incluent l’auto-optimisation du système d’IA, ainsi que sa sécurité et sa fiabilité.
Federico Bianchi, ingénieur Xyla AI, postdoc à l'Université de Stanford, a étudié auprès des professeurs Dan Jurafsky et James Zou. Ses recherches portent sur l'apprentissage automatique et le développement de grands modèles de langage.
Joseph Boen est doctorant à l'Université de Stanford, étudiant sous la direction de James Zou. Ses recherches portent sur l'application de l'IA à la science.
Liu Sheng est postdoctorant à l'Université de Stanford aux États-Unis. Il a étudié auprès des professeurs James Zou et Lei Xing. Il a obtenu un doctorat en science des données et en intelligence artificielle de l'Université de New York. Les axes de recherche incluent la sécurité et la fiabilité de l’apprentissage profond, les grands modèles de langage multimodaux et l’application de l’IA en biomédecine.
Huang Zhi, actuellement professeur à l'Université de Pennsylvanie et postdoctorant à l'Université de Stanford. Doctorat de l'Université Purdue. L'orientation de la recherche est le génie biomédical et l'application de l'IA en pathologie.
L'équipe TextGrad
Utiliser le texte pour les dégradés centimes ? ! Récemment, des chercheurs de l'Université de Stanford ont lancé un nouveau framework TextGrad pour coordonner et optimiser efficacement les systèmes d'IA composés de grands modèles de langage (LLM) et d'autres composants, et optimiser automatiquement les performances des tâches de bout en bout.
Actuellement, le système d'IA optimisé utilisant TextGrad et GPT-4o comme moteur peut atteindre :
- Meilleurs résultats LeetCode-Hard
- Découvrez de nouveaux de La molécule prend en compte simultanément plusieurs objectifs d'optimisation tels que l'efficacité et la toxicité des médicaments. /
- Article TextGrad : https://arxiv.org/abs/2406.07496
TextGrad Github : https://github.com/zou-group/textgrad
L'IA générative est activée la voie à partir d'un modèle unique Dans le changement de paradigme de la formation à l'optimisation de systèmes complexes, le développement de méthodes d'optimisation automatique fondées sur des principes pour les systèmes d'IA synthétiques est devenu l'un des nouveaux défis les plus importants du moment. Comment coordonner et optimiser efficacement les composants d'IA tels que les grands modèles de langage (LLM) et optimiser automatiquement les performances des tâches de bout en bout est devenu l'un des défis les plus urgents aujourd'hui. Pour dire combien il y a de volumes dans le monde de l’IA, il faut regarder l’Université de Stanford. Au cours des deux derniers jours, des chercheurs de l'Université de Stanford ont fait un autre grand pas en lançant un nouveau framework TextGrad, qui apporte une nouvelle solution à ce problème. Il s'appuie sur DSPy, également publié par Stanford, et intègre la puissante fonction de rétropropagation de gradient de PyTorch pour optimiser automatiquement les systèmes d'IA complexes. Cet article analysera en profondeur les concepts de base et les mécanismes d'optimisation de TextGrad, explorera ses vastes perspectives d'application et attendra avec impatience l'avenir de l'optimisation basée sur le langage.
TextGrad traite l'application LLM comme un graphe de calcul (Computation Graph), utilisant le langage naturel comme support pour implémenter un transfert « dégradé » entre différents composants. Optimisez diverses variables dans divers systèmes en rétropropagant les commentaires textuels de la sortie du modèle de langage vers tous les premiers composants possibles. Dans TextGrad, tout est texte, ce qui signifie que nous utilisons des modèles de langage pour 1) évaluer la sortie, 2) critiquer la sortie et 3) mettre à jour l'entrée. Ce processus est quelque peu similaire à la rétropropagation de PyTorch, sauf qu'au lieu de propager des dégradés numériques, des commentaires sous forme de texte sont propagés.
Cette interface d'interaction linguistique unifiée confère à TextGrad une forte universalité. Elle traite les invites, les questions, les résultats, etc. comme des variables, sans exiger qu'elles soient différenciables, et présente une forte compatibilité. TextGrad fonctionne de manière transparente avec n'importe quel LLM ou autre API prenant en charge les E/S en langage naturel et ne nécessite pas que d'autres fonctions du graphe informatique soient différenciables. Cela le rend très approprié pour intégrer des fonctionnalités plug-and-play telles que la récupération et l'appel d'outils pour créer un pipeline d'IA composite flexible et polyvalent. TextGrad n'a pas non plus besoin de concevoir manuellement des invites, recherche automatiquement les descriptions de tâches les plus préoccupantes et participe directement à l'optimisation. Cela libère les développeurs de l'ingénierie rapide et devrait trouver automatiquement de meilleurs paradigmes d'apprentissage en contexte. Que peut faire TextGrad ?
1. Projet d'invite Grâce à l'invite optimisée par TextGrad, le taux de précision de l'assurance qualité de GPT-3.5-turbor peut être amélioré de 78 % à 92 %, et seules quelques itérations d'optimisation sont nécessaires. Si vous souhaitez reproduire ce résultat et explorer TextGrad davantage, l'équipe TextGrad a préparé un didacticiel simple pour vous.
TextGrad peut être appliqué pour inviter l'ingénieur très facilement et commodément. 2. Optimiser la sortie du modèle En plus de mettre à jour l'invite du modèle, la réponse (réponse) du modèle et la sortie de la représentation textuelle peuvent également être optimisées par TextGrad. Ci-dessus, TextGrad optimise le code pour le problème LeetCode généré par LLM. Il existe d'autres applications de l'IA pour la science ! "Drug Discovery" le médicament se lie à la protéine cible). La similarité du médicament est mesurée par le score QED, qui va de 0 à 1, 1 indiquant la meilleure correspondance avec les propriétés du médicament ; l'affinité de liaison est mesurée par le score Vina, les scores plus négatifs étant meilleurs.
Gauche : similarité des médicaments moléculaires et distribution de l'affinité de liaison avant et après 10 itérations d'optimisation TextGrad, par rapport aux médicaments cliniquement approuvés ciblant la même protéine cible. À droite : exemple de trajectoire de 10 itérations d’optimisation TextGrad, comparant les propriétés de médicaments cliniquement approuvés.
Planification du traitement de radiothérapie
TextGrad peut également être utilisé pour optimiser les plans de radiothérapie, qui déterminent la dose requise pour la radiothérapie et identifient les zones qui nécessitent un traitement. En particulier, l’objectif de la planification du traitement est d’administrer une dose prescrite de rayonnement à la tumeur tout en protégeant les tissus normaux critiques des doses dangereuses. Les médecins ajustent et optimisent généralement le plan de traitement à plusieurs reprises par essais et erreurs jusqu'à ce que le plan réponde aux exigences cliniques. Cela rend l’ensemble du processus inefficace, long et coûteux. TextGrad fournit automatiquement des gradients aux systèmes de planification basés sur l'IA pour optimiser les plans de radiothérapie, en pesant automatiquement la tumeur par rapport aux tissus sains voisins. TextGrad utilise le langage pour ouvrir les barrières entre les différents modules cognitifs. Il permet à LLM de participer à sa propre optimisation itérative et de parvenir à une évolution continue grâce à des capacités cognitives de haut niveau telles que l'introspection, le jugement et la création. Essentiellement, l’importance de TextGrad va bien au-delà de l’optimisation des performances du pipeline. Il nous montre la possibilité de réaliser l’autocognition et l’autocorrection de l’IA grâce au langage. Cette voie « d’optimisation basée sur le langage » peut également être un bon remède à de nombreux « problèmes d’illusion » actuels. TextGrad a été utilisé pour résoudre de nombreux problèmes scientifiques et médicaux ! D'autres applications vous attendent pour explorer et découvrir ! Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!