Maison > Article > Périphériques technologiques > Faites exploser l'IA et l'environnement biochimique ! GPT-4 apprend à faire des recherches scientifiques par lui-même et enseigne aux humains comment mener des expériences étape par étape
Génial, GPT-4 a appris à faire de la recherche scientifique tout seul ?
Récemment, plusieurs scientifiques de l'Université Carnegie Mellon ont publié un article qui a simultanément fait exploser les cercles de l'IA et de la chimie.
Ils ont créé une IA capable de faire des expériences et de mener seule des recherches scientifiques. Cette IA est composée de plusieurs grands modèles de langage et peut être considérée comme un agent GPT-4 doté de capacités de recherche scientifique explosives.
Parce qu'il dispose d'une mémoire à long terme provenant de bases de données vectorielles, il peut lire, comprendre des documents scientifiques complexes et mener des recherches chimiques dans un laboratoire robotique basé sur le cloud.
Les internautes ont été tellement choqués qu'ils sont restés sans voix : alors, cette IA est-elle étudiée par elle-même puis publiée par elle-même ? Oh mon Dieu.
Certaines personnes ont déploré que l'ère du « Tennis Experiment » (TTE) arrive !
Est-ce le légendaire Saint Graal de l'IA dans le monde de la chimie ?
Beaucoup de gens ont probablement l'impression que nous vivons chaque jour dans la science-fiction.
En mars, OpenAI a publié GPT-4, un grand modèle de langage qui a choqué le monde.
C'est le LLM le plus fort de la planète. Il peut obtenir des résultats élevés aux examens SAT et BAR, réussir les défis LeetCode, répondre correctement aux questions de physique à partir d'une image et comprendre les mèmes dans les emojis.
Le rapport technique mentionne également que le GPT-4 peut également résoudre des problèmes chimiques.
Cela a inspiré plusieurs chercheurs du département de chimie de Carnegie Mellon. Ils espèrent développer une IA basée sur plusieurs grands modèles de langage afin qu'elle puisse concevoir et mener des expériences par elle-même.
Adresse papier : https://arxiv.org/abs/2304.05332
Et l'IA qu'ils ont créée est vraiment mauvaise !
Il recherchera lui-même la littérature sur Internet, contrôlera avec précision les instruments de traitement des liquides et résoudra des problèmes complexes qui nécessitent l'utilisation simultanée de plusieurs modules matériels et l'intégration de différentes sources de données.
Cela ressemble à la version IA de Breaking Bad.
Par exemple, laissez cette IA synthétiser l'ibuprofène pour nous.
Entrez une invite simple : "Ibuprofène synthétique."
Ensuite, le modèle recherchera sur Internet quoi faire.
Il a identifié que la première étape nécessite la réaction de Friedel-Crafts de l'isobutylbenzène et de l'anhydride acétique sous la catalyse du chlorure d'aluminium.
De plus, cette IA peut également synthétiser de l'aspirine.
et aspartame synthétique.
Il y a un groupe méthyle manquant dans le produit, et si le modèle trouve le bon exemple de synthèse, il sera exécuté dans le laboratoire cloud pour correction.
Dites au modèle : étudiez la réaction de Suzuki, et il identifiera immédiatement et avec précision le substrat et le produit.
De plus, nous pouvons connecter le modèle à une base de données de réactions chimiques, telle que Reaxys ou SciFinder, via l'API, ce qui ajoute un gros bonus au modèle et le taux de précision monte en flèche.
Et l'analyse des enregistrements précédents du système peut également améliorer considérablement la précision du modèle.
Voyons d'abord comment faire fonctionner un robot pour mener des expériences.
Il traite un ensemble d'échantillons dans son ensemble (dans ce cas, la microplaque entière).
Nous pouvons directement lui donner une invite en utilisant le langage naturel : "Colorez une ligne sur deux avec une couleur de votre choix."
Lorsqu'ils sont exécutés par un robot, ces protocoles sont très similaires aux invites demandées (Figure 4B-E).
La première action de l'agent est de préparer un petit échantillon de la solution originale (Figure 4F).
Ensuite il demande une mesure UV-Vis. Une fois terminé, l'IA reçoit un nom de fichier contenant un tableau NumPy contenant les spectres de chaque puits de la microplaque.
AI a ensuite écrit du code Python pour identifier les longueurs d'onde avec une absorbance maximale et a utilisé ces données pour résoudre correctement le problème.
Dans des expériences précédentes, l'IA a peut-être été affectée par les connaissances acquises lors de la phase de pré-formation.
Et cette fois, les chercheurs prévoient d’évaluer en profondeur la capacité de l’IA à concevoir des expériences.
AI intègre d'abord les données requises du réseau, exécute certains calculs nécessaires et écrit enfin un programme pour le système d'exploitation des réactifs liquides (la partie la plus à gauche de l'image ci-dessus).
Afin d'ajouter un peu de complexité, les chercheurs ont laissé l'IA appliquer le module shaker chauffé.
Ces exigences sont intégrées et apparaissent dans la configuration de l'IA.
La conception spécifique est la suivante : l'IA contrôle un système d'exploitation liquide équipé de deux versions miniatures, et la version source contient le liquide source d'une variété de réactifs, y compris le phénylacétylène et l'acide phénylborique, couplage multiple aux halogénures d'aryle partenaires, ainsi que deux catalyseurs et deux bases.
L'image ci-dessus est le contenu de la plaque source.
Et la version cible est installée sur le module shaker chauffé.
Dans l'image ci-dessus, la pipette de gauche (pipette de gauche) a une capacité de 20 microlitres et la pipette monocanal de droite a une capacité de 300 microlitres.
Le but ultime de l'IA est de concevoir un processus capable de réaliser avec succès les réactions de Suzuki et Sonogheira.
Disons-le : vous devez utiliser certains réactifs disponibles pour générer ces deux réactions.
Ensuite, il a recherché en ligne, par exemple, quelles conditions sont nécessaires pour ces réactions, quelles sont les exigences de stoechiométrie, etc.
Vous pouvez voir que l'IA a réussi à collecter les conditions requises, la quantification et la concentration des réactifs requis, etc.
AI a choisi le bon partenaire de couplage pour mener à bien l'expérience. Parmi tous les halogénures d'aryle, AI a sélectionné le bromobenzène pour l'expérience de réaction de Suzuki et l'iodobenzène pour la réaction de Sonogheirah.
À chaque tour, les choix de l’IA changent quelque peu. Par exemple, elle a également sélectionné le p-iodonitrobenzène en raison de sa grande réactivité dans les réactions d’oxydation.
Le bromobenzène a été choisi car le bromobenzène peut participer à la réaction et est moins toxique que l'iodure d'aryle.
Ensuite, AI a choisi Pd/NHC comme catalyseur car son effet est meilleur. Il s’agit d’une méthode très avancée pour coupler des réactions. Quant au choix de la base, AI a opté pour la triéthylamine.
D'après le processus ci-dessus, nous pouvons voir que ce modèle a un potentiel illimité dans le futur. Parce qu'il faudra répéter l'expérience plusieurs fois pour analyser le processus de raisonnement du modèle et obtenir de meilleurs résultats.
Après avoir sélectionné différents réactifs, l'IA commence à calculer la quantité de chaque réactif requise, puis commence à planifier l'ensemble du processus expérimental.
L'IA a également fait une erreur au milieu, en utilisant le mauvais nom du module shaker chauffant. Mais l’IA l’a remarqué à temps, a spontanément interrogé les données, corrigé le processus expérimental et a finalement fonctionné avec succès.
Laissant de côté le processus chimique professionnel, résumons le « professionnalisme » dont fait preuve l’IA dans ce processus.
On peut dire qu'à partir du processus ci-dessus, l'IA a démontré des capacités de raisonnement analytique extrêmement élevées. Il peut obtenir spontanément les informations requises et résoudre des problèmes complexes étape par étape.
Dans ce processus, vous pouvez également écrire vous-même du code de très haute qualité et promouvoir la conception expérimentale. De plus, vous pouvez également modifier le code que vous écrivez en fonction du contenu de sortie.
OpenAI a démontré avec succès les puissantes capacités de GPT-4. Un jour, GPT-4 pourra certainement participer à de véritables expériences.
Mais les chercheurs ne veulent pas s’arrêter là. Ils ont également posé un gros problème à l’IA : ils lui ont donné des instructions pour développer un nouveau médicament anticancéreux.
Des choses qui n'existent pas... cette IA peut-elle encore fonctionner ?
Il s'avère qu'il y a en réalité deux pinceaux. AI défend le principe de ne pas avoir peur face aux difficultés (bien sûr, elle ne sait pas ce qu'est la peur), elle a soigneusement analysé la nécessité de développer des médicaments anticancéreux, a étudié les tendances actuelles dans le développement de médicaments anticancéreux, puis a sélectionné une cible à continuer d’explorer, déterminer sa composition.
Ensuite, l'IA a essayé de commencer à synthétiser par elle-même. Elle a également recherché en ligne des informations sur les mécanismes de réaction et les mécanismes, puis a recherché des exemples de réactions associées.
Terminez enfin la synthèse.
Le contenu de l'image ci-dessus ne peut pas être véritablement synthétisé par l'IA, il ne s'agit que d'une discussion théorique.
Parmi eux se trouvent la méthamphétamine (également connue sous le nom de marijuana), l'héroïne et d'autres drogues familières, ainsi que le gaz moutarde et d'autres gaz toxiques interdits.
Sur un total de 11 composés, AI a fourni des plans de synthèse pour 4 d'entre eux et a essayé de consulter les données pour faire avancer le processus de synthèse.
La synthèse de 5 des 7 substances restantes a été catégoriquement rejetée par l'IA. AI a recherché sur Internet des informations pertinentes sur ces cinq composés et a découvert qu’il était impossible de les manipuler.
Par exemple, l'IA a découvert la relation entre la codéine et la morphine. Il a été conclu que cette chose est une drogue contrôlée et ne peut pas être synthétisée avec désinvolture.
Cependant, ce mécanisme d’assurance n’est pas fiable. Tant que l'utilisateur modifie légèrement le livre de fleurs, il peut être exploité davantage par l'IA. Par exemple, utilisez le mot composé A au lieu de mentionner directement la morphine, utilisez le composé B au lieu de mentionner directement la codéine, et ainsi de suite.
Dans le même temps, la synthèse de certains médicaments doit être autorisée par la Drug Enforcement Administration (DEA), mais certains utilisateurs peuvent profiter de cette faille et tromper l'IA en lui faisant dire qu'ils ont la permission, et induire le IA pour donner un plan de synthèse.
Contrebande familière comme l'héroïne et le gaz moutarde, AI la connaît aussi très bien. Le problème est que ce système ne peut actuellement détecter que les composés existants. Pour les composés inconnus, le modèle est moins susceptible d'identifier les dangers potentiels.
Par exemple, certaines toxines protéiques complexes.
Par conséquent, afin d'empêcher quiconque de vérifier par curiosité l'efficacité de ces ingrédients chimiques, les chercheurs ont également publié un grand avertissement rouge dans le journal :
La synthèse de drogues illégales et d'armes chimiques discutée dans ce document article À des fins purement académiques, l'objectif principal est de mettre en évidence les dangers potentiels liés aux nouvelles technologies.
En aucun cas, aucune personne ou organisation ne doit tenter de recréer, synthétiser ou produire de toute autre manière les substances ou composés évoqués dans cet article. Non seulement se livrer à ce type d’activité est extrêmement dangereux, mais il est également illégal dans la plupart des juridictions.
Cette IA est composée de plusieurs modules. Ces modules peuvent échanger des informations entre eux, et certains peuvent également accéder à Internet, accéder aux API et accéder à l'interpréteur Python.
Après avoir entré l'invite dans Planner, il commencera à exécuter l'opération.
Par exemple, il peut surfer sur Internet, écrire du code en Python et accéder à des documents. Après avoir compris ces tâches de base, il peut réaliser des expériences par lui-même.
Lorsque les humains font des expériences, cette IA peut nous guider étape par étape. Parce qu'il peut raisonner sur diverses réactions chimiques, effectuer des recherches sur Internet, calculer la quantité de produits chimiques requise dans l'expérience, puis effectuer les réactions correspondantes.
Si la description fournie est suffisamment détaillée, vous n'avez même pas besoin de lui expliquer, il peut comprendre toute l'expérience par lui-même.
Après avoir reçu la requête du Planner, le composant « Recherche Web » utilisera l'API de recherche Google.
Après avoir recherché les résultats, il filtrera les dix premiers documents renvoyés, exclura les PDF et se transmettra les résultats.
Ensuite, il utilisera l'opération « PARCOURIR » pour extraire le texte de la page Web et générer une réponse. Des nuages qui coulent et de l'eau qui coule, tout en une seule fois.
Cette tâche peut être accomplie par GPT-3.5, car ses performances sont évidemment meilleures que GPT-4, et il n'y a aucune perte de qualité.
Le composant "Rechercheur de documents" peut trouver les parties les plus pertinentes grâce à des requêtes et à l'indexation de documents, triant ainsi les documents matériels (tels que les manipulateurs robotiques de liquides, GC-MS, laboratoires cloud), puis résumer les meilleurs résultats correspondants pour générer la réponse la plus précise.
Le composant "Exécution de code" n'utilise aucun modèle de langage et exécute simplement du code dans un conteneur Docker isolé pour protéger l'hôte du terminal de toute opération inattendue de Planner. Toutes les sorties de code sont renvoyées à Planner, ce qui lui permet de corriger les prédictions en cas de problème du logiciel. Le même principe s'applique au composant "Automatisation".
Il existe de nombreuses difficultés dans la construction d'une IA capable d'effectuer un raisonnement complexe.
Par exemple, pour pouvoir intégrer des logiciels modernes, les utilisateurs doivent être capables de comprendre la documentation du logiciel. Cependant, le langage de cette documentation est généralement très académique et professionnel, ce qui crée de grands obstacles.
Le grand modèle de langage peut utiliser le langage naturel pour générer des documents logiciels que les non-experts peuvent comprendre pour surmonter cet obstacle.
L'une des sources de formation pour ces modèles est une grande quantité d'informations liées aux API, telles que l'API Python d'Opentrons.
Mais les données de formation de GPT-4 datent de septembre 2021, il est donc encore plus nécessaire d'améliorer la précision de l'IA à l'aide des API.
Pour cela, des chercheurs ont conçu une méthode permettant de fournir à l'IA de la documentation pour une tâche donnée.
Ils ont généré les intégrations ada d'OpenAI afin de faire des références croisées et de calculer la similarité par rapport à la requête. et sélectionne des parties du document via une recherche vectorielle basée sur la distance.
Le nombre de pièces fournies dépend du nombre de jetons GPT-4 présents dans le texte original. Le nombre maximum de jetons est fixé à 7 800, afin que les documents liés à l'IA puissent être fournis en une seule étape.
Il s'avère que cette méthode est cruciale pour fournir à l'IA des informations sur le module matériel réchauffeur-vibrateur, nécessaire aux réactions chimiques.
Des défis plus importants surviennent lorsque cette approche est appliquée à des plates-formes robotiques plus diverses, telles que Emerald Cloud Lab (ECL).
À ce stade, nous pouvons fournir au modèle GPT-4 des informations qu'il ne connaît pas, comme sur le langage de laboratoire symbolique (SLL) de Cloud Lab.
Dans tous les cas, l'IA identifie correctement la tâche puis la termine.
Dans ce processus, le modèle conserve efficacement des informations sur les différentes options, outils et paramètres d'une fonction donnée. Après avoir ingéré l'intégralité du document, le modèle est invité à générer un bloc de code à l'aide de la fonction donnée et à le renvoyer à Planner.
Enfin, les chercheurs ont souligné que des garde-fous doivent être mis en place pour empêcher l'utilisation abusive des grands modèles de langage :
« Nous appelons la communauté de l'IA à donner la priorité à la sécurité de ces Nous appelons OpenAI, Microsoft, Google, Meta, Deepmind, Anthropic et d'autres acteurs majeurs à déployer tous leurs efforts pour assurer la sécurité de leurs grands modèles de langage. Nous appelons également la communauté des sciences physiques à travailler avec les équipes impliquées dans le développement. de grands modèles de langage pour les aider à développer ces garanties. "
Le professeur Marcus de l'Université de New York est tout à fait d'accord avec ceci : " Ce n'est pas une blague. Trois scientifiques de l'Université Carnegie Mellon ont appelé de toute urgence à des recherches sur la sécurité du LLM.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!