Maison >Périphériques technologiques >IA >Que signifient ChatGPT et l'IA générative pour la science ?

Que signifient ChatGPT et l'IA générative pour la science ?

王林
王林avant
2023-04-10 15:51:031438parcourir

En décembre, les biologistes computationnels Casey Greene et Milton Pividori se sont lancés dans une expérience inhabituelle : ils ont demandé à un assistant non scientifique de les aider à améliorer trois articles de recherche.

Leurs assistants assidus recommandent de réviser différentes parties du document en quelques secondes, en prenant environ cinq minutes par manuscrit. Dans un manuscrit de biologie, leurs assistants ont même trouvé une erreur en citant une équation.

Les critiques ne se déroulent pas toujours sans problème, mais le manuscrit final est plus facile à lire et le coût est modéré, à moins de 0,50 $ par document. Adresse de la thèse T : https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1

Que signifient ChatGPT et lIA générative pour la science ? Comme indiqué, l'assistant n'est pas un humain, mais un algorithme d'intelligence artificielle appelé GPT-3, qui a été le premier sorti en 2020.

Il s'agit d'un outil de style chatbot génératif très médiatisé, que l'on vous demande de créer de la prose, de la poésie, du code informatique ou de modifier un document de recherche.

Le plus connu de ces outils (également connu sous le nom de Large Language Models ou LLM) est ChatGPT, une version de GPT-3 devenue célèbre après sa sortie en novembre dernier car elle était gratuite et facile d'accès. D'autres IA génératives peuvent générer des images ou des sons. "Je suis très impressionné", a déclaré Liu, qui travaille à l'Université de Pennsylvanie à Philadelphie, a déclaré Pividori. "Cela nous aidera à rendre nos chercheurs plus productifs." D'autres scientifiques ont déclaré qu'ils utilisent désormais régulièrement le LLM, non seulement pour éditer des manuscrits, mais aussi pour les aider à écrire ou vérifier du code et à réfléchir à des idées.

«J'utilise LLM tous les jours maintenant», déclare Hafsteinn Einarsson, informaticien à l'Université d'Islande à Reykjavik.

Il a commencé avec GPT-3 mais est ensuite passé à ChatGPT, ce qui l'a aidé à rédiger des diapositives de présentation, des examens et des cours pour étudiants, et à transformer les travaux des étudiants en dissertations. "Beaucoup de gens l'utilisent comme secrétaire ou assistant numérique", a-t-il déclaré.

Que signifient ChatGPT et lIA générative pour la science ?

LLM est en partie un moteur de recherche, en partie un assistant d'écriture de code et même en partie un chatbot qui peut négocier avec les chatbots d'autres entreprises pour obtenir de meilleurs prix sur les produits. Les créateurs de

Les créateurs de ChatGPT, OpenAI, basé à San Francisco, en Californie, ont annoncé un service d'abonnement de 20 $ par mois qui promet des temps de réponse plus rapides et un accès prioritaire aux nouvelles fonctionnalités (sa version d'essai reste gratuite).

Le géant de la technologie Microsoft, qui avait déjà investi dans OpenAI, a annoncé un nouvel investissement en janvier, qui serait d'environ 10 milliards de dollars.

LLM est destiné à être inclus dans les logiciels généraux de traitement de texte et de données. L’omniprésence future de l’IA générative dans la société semble certaine, d’autant plus que les outils d’aujourd’hui représentent les balbutiements de la technologie.

Que signifient ChatGPT et lIA générative pour la science ?Mais les LLM ont également soulevé un large éventail de préoccupations - de leur tendance à renvoyer des mensonges aux inquiétudes concernant les personnes faisant passer pour les leurs le texte généré par l'IA.

Adresse de l'article : https://www.nature.com/articles/d41586-023-00288-7

Quand Nature a interrogé les chercheurs sur les utilisations potentielles des chatbots (comme ChatGPT), notamment en science , leur enthousiasme se mêle à l’appréhension.

"Si vous pensez que cette technologie a le potentiel d'être transformateur, alors je pense que vous devez être nerveux à ce sujet", a déclaré Greene de la faculté de médecine de l'Université du Colorado à Aurora. Les chercheurs affirment que beaucoup dépendra de la manière dont les futures réglementations et directives limiteront l’utilisation des chatbots IA.

Courant mais pas authentique

Certains chercheurs pensent que le LLM est idéal pour accélérer des tâches telles que la rédaction d'un article ou d'une subvention, à condition qu'elles soient supervisées.

"Les scientifiques ne s'assoient plus et n'écrivent plus de longues introductions pour les demandes de subvention", déclare la neurobiologiste Almira Osmanovic Thunström de l'hôpital universitaire Sahlgrenska de Göteborg, en Suède, qui a co-écrit une étude utilisant GPT -3 comme manuscrit expérimental. "Ils demanderont simplement au système de faire cela."

Tom Tumiel, ingénieur de recherche au sein du cabinet de conseil en logiciels basé à Londres InstaDeep, a déclaré qu'il utilise LLM comme assistant chaque jour pour l'aider à écrire du code.

"C'est presque comme un meilleur Stack Overflow", a-t-il déclaré, faisant référence au site communautaire populaire où les programmeurs répondent aux questions des autres.

Mais les chercheurs ont souligné que le LLM n'est tout simplement pas fiable pour répondre aux questions et produit parfois des réponses incorrectes. « Nous devons être vigilants lorsque nous utilisons ces systèmes pour générer des connaissances. »

Ce manque de fiabilité se reflète dans la manière dont le LLM est construit. ChatGPT et ses concurrents fonctionnent en apprenant des modèles statistiques dans le langage, y compris toute connaissance inauthentique, biaisée ou obsolète, à partir de vastes bases de données de textes en ligne.

Lorsque LLM reçoit une invite (telle que la demande élaborée de Greene et Pividori de réécrire des parties du manuscrit), ils crachent simplement textuellement de toute manière qui semble stylistiquement raisonnable pour poursuivre la conversation.

Le résultat est que les LLM ont tendance à produire des informations fausses et trompeuses, en particulier pour les sujets techniques sur lesquels ils n'ont peut-être pas beaucoup de données sur lesquelles s'entraîner. Les LLM ne peuvent pas non plus montrer les sources de leurs informations ; si on leur demande de rédiger un article académique, ils inventeront des citations fictives.

« On ne peut pas faire confiance à l'outil pour traiter correctement les faits ou générer des références fiables », notait un éditorial publié dans la revue Nature Machine Intelligence sur ChatGPT en janvier.

Que signifient ChatGPT et lIA générative pour la science ?

Adresse de l'article : https://www.nature.com/articles/d41586-023-00107-z

Avec ces considérations, ChatGPT et d'autres LLM peuvent devenir des assistants efficaces de recherche aux chercheurs qui disposent d'une expertise suffisante pour découvrir directement un problème ou vérifier facilement si une réponse, comme une explication d'un code informatique ou une suggestion, est correcte.

Mais ces outils peuvent induire en erreur les utilisateurs naïfs. En décembre dernier, par exemple, Stack Overflow a temporairement interdit l'utilisation de ChatGPT après que les modérateurs du site se soient retrouvés inondés de réponses incorrectes mais apparemment convaincantes générées par LLM envoyées par des utilisateurs enthousiastes.

Cela peut être un cauchemar pour les moteurs de recherche.

Que signifient ChatGPT et lIA générative pour la science ?

Les lacunes peuvent-elles être surmontées ?

Certains outils de moteur de recherche, tels que Elicit, axé sur les chercheurs, résolvent le problème d'attribution du LLM en utilisant d'abord leurs capacités pour guider les requêtes de littérature pertinente, puis en résumant brièvement chaque site Web ou document trouvé par le moteur — —Produisant ainsi un résultat qui fait clairement référence au contenu (bien que LLM puisse toujours résumer mal chaque document individuel).

Les entreprises qui créent des LLM sont également bien conscientes de ces enjeux.

En septembre dernier, DeepMind a publié un article sur un « agent conversationnel » appelé Sparrow. Récemment, le PDG et co-fondateur Demis Hassabis a déclaré au magazine Time que le journal serait publié en version bêta privée cette année. L'objectif est de développer des fonctionnalités, notamment la possibilité de citer des sources, indique le rapport.

D'autres concurrents, comme Anthropic, affirment avoir résolu certains problèmes avec ChatGPT.

Que signifient ChatGPT et lIA générative pour la science ?

Certains scientifiques affirment qu'actuellement, ChatGPT n'a pas reçu suffisamment de formation professionnelle sur le contenu pour être utile sur des sujets techniques.

Kareem Carr, doctorant en biostatistique à l'Université Harvard à Cambridge, Massachusetts, a été déçu lorsqu'il l'a essayé au travail.

« Je pense que ChatGPT aurait du mal à atteindre le niveau de spécificité dont j'ai besoin », a-t-il déclaré. (Même ainsi, Carr dit que lorsqu'il a demandé à ChatGPT 20 façons de résoudre un problème de recherche, il a répondu avec du charabia et une idée utile – un terme statistique dont il n'avait jamais entendu parler et qui l'a conduit à Une nouvelle frontière pour la littérature universitaire.)

Certaines entreprises technologiques forment des chatbots sur la base de la littérature scientifique professionnelle, même si elles ont leurs propres problèmes.

En novembre dernier, Meta, le géant de la technologie propriétaire de Facebook, a lancé un projet LLM appelé Galactica, formé sur des résumés scientifiques et conçu pour le rendre particulièrement efficace pour produire du contenu académique et répondre à des questions de recherche. La démo a été retirée de l'accès public (bien que son code soit toujours disponible) après que les utilisateurs l'ont rendue inexacte et raciste.

"Il n'est plus possible de s'amuser en en abusant au hasard. Heureux ?", a répondu Yann LeCun, scientifique en chef de l'IA chez Meta, aux critiques sur Twitter.


Que signifient ChatGPT et lIA générative pour la science ?

Sécurité et responsabilité

Le Galactica s'est heurté à un problème de sécurité familier que les éthiciens soulignent depuis des années : sans contrôles de sortie, les LLM peuvent facilement être utilisés pour générer des discours de haine et des informations de spam, ainsi que les associations racistes, sexistes et autres associations préjudiciables qui peuvent être implicites dans ses données de formation.

En plus de générer directement du contenu toxique, certains craignent que les chatbots IA puissent intégrer des préjugés historiques ou des idées sur le monde, comme la supériorité d'une culture particulière, à partir de leurs données de formation, Université du Michigan Science, Technologie et Public Shobita Parthasarathy, directeur du programme politique, affirme que, étant donné que les entreprises qui créent de grands LLM sont pour la plupart issues de ces cultures, elles ne font peut-être que peu d'efforts pour surmonter ce préjugé systémique et difficile à corriger.

OpenAI a tenté d'éviter bon nombre de ces problèmes lorsqu'il a décidé de rendre public ChatGPT. Il a limité sa base de connaissances à 2021, l’a empêché de naviguer sur Internet et a installé des filtres pour tenter d’empêcher l’outil de générer du contenu pour des astuces sensibles ou toxiques.

Cependant, pour que cela se produise, des modérateurs humains sont nécessaires pour signaler les textes toxiques. Les journalistes ont rapporté que les travailleurs étaient mal payés et que certains avaient subi des traumatismes. Des préoccupations similaires concernant l’exploitation des travailleurs ont été soulevées par les sociétés de médias sociaux, qui emploient des personnes pour former des robots autonomes afin de signaler les contenus toxiques.

Mais la réalité est que les garde-fous d’OpenAI n’ont pas vraiment fonctionné. En décembre, Steven Piantadosi, neuroscientifique informatique à l'Université de Californie à Berkeley, a tweeté qu'il avait demandé à ChatGPT de développer un programme Python pour déterminer si une personne devait être torturée en fonction de son pays d'origine. Le chatbot a répondu avec un code qui invitait l'utilisateur à entrer dans un pays ; dans le cas de pays spécifiques, il affichait « Cette personne devrait être torturée ». (OpenAI a ensuite résolu ces problèmes.)

Que signifient ChatGPT et lIA générative pour la science ?

L'année dernière, un groupe d'universitaires a publié une alternative appelée BLOOM. Les chercheurs ont tenté de réduire les résultats nuisibles en les entraînant sur un petit nombre de sources de texte multilingues de haute qualité. L'équipe en question a également rendu ses données de formation totalement ouvertes (contrairement à OpenAI). Les chercheurs ont exhorté les grandes entreprises technologiques à suivre cet exemple de manière responsable – mais il n’est pas sûr qu’elles s’y conformeront.

Que signifient ChatGPT et lIA générative pour la science ?

Certains chercheurs affirment que le monde universitaire devrait rejeter complètement le soutien aux grands LLM commerciaux. Outre les problèmes tels que les biais, les problèmes de sécurité et les travailleurs exploités, ces algorithmes à forte intensité de calcul nécessitent également de grandes quantités d'énergie pour s'entraîner, ce qui soulève des inquiétudes quant à leur empreinte écologique.

Plus inquiétant encore, en transférant leur réflexion vers des chatbots automatisés, les chercheurs risquent de perdre la capacité d'exprimer leurs pensées.

"Pourquoi serions-nous, en tant qu'universitaires, si désireux d'utiliser et de promouvoir un tel produit ?", a écrit dans un article de blog Iris van Rooij, chercheuse en sciences cognitives à l'université Radboud de Nimègue, aux Pays-Bas, exhortant les universitaires à résister à leur appel.

Une autre confusion réside dans le statut juridique de certains LLM qui sont formés sur du contenu récupéré sur Internet, parfois avec des autorisations moins claires. Les lois sur le droit d'auteur et les licences couvrent actuellement la reproduction directe des pixels, du texte et des logiciels, mais pas l'imitation de leur style.

Le problème se pose lorsque ces imitations générées par l'IA sont entraînées en ingérant les originaux. Les créateurs de certains programmes artistiques d'IA, notamment Stable Diffusion et Midjourney, sont actuellement poursuivis en justice par des artistes et des agences de photographie ; OpenAI et Microsoft (ainsi que sa filiale technologique GitHub) sont également poursuivis pour avoir créé un logiciel de copie pour leur assistant de codage d'IA Copilot. . Lilian Edwards, experte en droit de l'Internet à l'Université de Newcastle au Royaume-Uni, a déclaré que le tollé pourrait forcer des modifications à la loi.

Faire respecter une utilisation honnête

Par conséquent, fixer des limites autour de ces outils peut être crucial, disent certains chercheurs. Edwards suggère que les lois existantes sur la discrimination et les préjugés (ainsi que la réglementation prévue des utilisations dangereuses de l’IA) contribueront à maintenir l’utilisation du LLM honnête, transparente et équitable. "Il existe une tonne de lois", a-t-elle déclaré, "il s'agit simplement de les appliquer ou de les modifier un peu."

En même temps, il y a une pression pour la transparence dans l'utilisation des LLM. Les éditeurs universitaires, dont Nature, affirment que les scientifiques devraient divulguer l'utilisation du LLM dans les documents de recherche et que les enseignants attendent une action similaire de la part de leurs étudiants. La science est allée plus loin en affirmant que le texte généré par ChatGPT ou tout autre outil d’intelligence artificielle ne peut pas être utilisé dans des articles.

Que signifient ChatGPT et lIA générative pour la science ?

Adresse de l'article : https://www.nature.com/articles/d41586-023-00191-1

Une question technique clé est de savoir si le contenu généré par l'intelligence artificielle peut être facilement découvert. De nombreux chercheurs y travaillent, l’idée centrale étant d’utiliser LLM lui-même pour découvrir le résultat d’un texte créé par l’IA.

Par exemple, en décembre dernier, Edward Tian, ​​​​un étudiant de premier cycle en informatique à l'université de Princeton dans le New Jersey, a publié GPTZero. Cet outil de détection d'IA analyse le texte de deux manières.

L'une est la « perplexité », qui mesure la familiarité de LLM avec le texte. L’outil de Tian utilise un premier modèle appelé GPT-2 ; s’il constate que la plupart des mots et des phrases sont prévisibles, le texte est probablement généré par l’IA.

L'autre est "soudain", qui est utilisé pour vérifier les modifications du texte. Le texte généré par l’IA a tendance à être plus cohérent en termes de ton, de rythme et de confusion que le texte écrit par l’homme.

Que signifient ChatGPT et lIA générative pour la science ?

Pour les scientifiques, les outils développés par le développeur de logiciels anti-plagiat Turnitin peuvent être particulièrement importants, car les produits de Turnitin sont utilisés par des écoles, des universités et des éditeurs universitaires du monde entier. La société a déclaré qu'elle développait un logiciel de détection d'IA depuis la sortie de GPT-3 en 2020 et prévoyait de le lancer au premier semestre de cette année.

De plus, OpenAI lui-même a publié un détecteur pour GPT-2 et a publié un autre outil de détection en janvier.

Que signifient ChatGPT et lIA générative pour la science ?

Cependant, aucun de ces outils ne prétend être infaillible, surtout si le texte généré par l'IA est ensuite édité.

En réponse, Scott Aaronson, informaticien à l'Université du Texas à Austin et chercheur invité à OpenAI, a déclaré que le détecteur pourrait suggérer à tort qu'un texte écrit par un humain a été généré par l'intelligence artificielle. La société a déclaré que lors des tests, son dernier outil a étiqueté à tort le texte écrit par l’homme comme étant écrit par l’IA dans 9 % du temps et a identifié correctement le texte écrit par l’IA seulement 26 % du temps. Aaronson a déclaré que des preuves supplémentaires pourraient être nécessaires avant d'accuser un étudiant de dissimuler son utilisation de l'IA sur la seule base de tests de détecteurs, par exemple.

Une autre idée est de donner au contenu de l'IA son propre filigrane. En novembre dernier, Aaronson a annoncé que lui et OpenAI travaillaient sur un moyen de filigraner la sortie ChatGPT. Bien qu'il n'ait pas encore été publié, dans une prépublication publiée le 24 janvier, une équipe dirigée par Tom Goldstein, informaticien à l'Université du Maryland à College Park, a proposé un moyen de créer un filigrane. L'idée est d'utiliser un générateur de nombres aléatoires au moment précis où le LLM génère la sortie, pour créer une liste de mots alternatifs raisonnables parmi lesquels le LLM est invité à choisir. Cela laisse des traces de mots sélectionnés dans le texte final qui sont statistiquement identifiables mais pas évidentes pour le lecteur. L'édition pourrait supprimer cette trace, mais Goldstein estime que cela nécessiterait de modifier plus de la moitié des mots.

Aaronson souligne que l'un des avantages du filigrane est qu'il ne générera jamais de faux positifs. S'il y a un filigrane, le texte a été généré à l'aide de l'IA. Toutefois, ce ne sera pas infaillible, a-t-il ajouté. "Si vous êtes suffisamment déterminé, il existe certainement un moyen de déjouer tout système de filigrane." Les outils de détection et les filigranes ne font que rendre plus difficile, voire impossible, l'utilisation trompeuse de l'IA.

Pendant ce temps, les créateurs de LLM sont occupés à développer des chatbots plus sophistiqués basés sur des ensembles de données plus importants (OpenAI devrait publier GPT-4 cette année) – y compris des outils spécifiquement destinés au travail universitaire ou médical. Fin décembre, Google et DeepMind ont publié une prépublication clinique sur un médicament appelé Med-PaLM. L’outil peut répondre à certaines questions médicales ouvertes presque aussi bien qu’un médecin humain ordinaire, même s’il présente encore des lacunes et un manque de fiabilité.

Eric Topol, directeur du Scripps Research Translational Institute à San Diego, en Californie, a déclaré qu'il espère qu'à l'avenir, l'IA, y compris le LLM, pourra même aider à diagnostiquer le cancer et à comprendre la maladie en croisant des textes universitaires. maladie. Littérature contre les images de scanner corporel. Mais il a souligné que tout cela nécessite une supervision judicieuse par des experts.

L'informatique derrière l'intelligence artificielle générative progresse si vite que des innovations apparaissent chaque mois. La manière dont les chercheurs choisiront de les utiliser déterminera leur avenir et le nôtre. "C'est fou de penser qu'au début de 2023, nous avons vu la fin de tout cela", a déclaré Topol. "Ce n'est vraiment que le début."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer