Maison  >  Article  >  Périphériques technologiques  >  Le père de ChatGPT "n'arrive pas à dormir la nuit" : j'ai vraiment peur que le grand modèle soit abusé

Le père de ChatGPT "n'arrive pas à dormir la nuit" : j'ai vraiment peur que le grand modèle soit abusé

WBOY
WBOYavant
2023-04-11 14:34:031112parcourir


Le père de ChatGPT

Selon les informations du 21 mars, Sam Altman, PDG de la start-up d'intelligence artificielle OpenAI, a déclaré dans une interview la semaine dernière que l'intelligence artificielle pourrait être « la meilleure que les humains aient jamais développée jusqu'à présent. « La plus grande technologie » va remodeler la société existante. Dans le même temps, il a également admis que cette technologie comporte des risques et qu’il en a encore « un peu peur ».

Altmann a souligné que l'intelligence artificielle entraînera de réels dangers, mais qu'elle pourrait aussi être « la plus grande technologie développée par l'humanité à ce jour » qui puisse remodeler la société et provoquer des changements bouleversants dans la vie.

Il a déclaré : "Nous devons être prudents à cet égard... Je pense que, heureusement, nous en avons un peu peur."

Altman a parlé de la dernière version du modèle de langage d'intelligence artificielle récemment publié par OpenAI dans l'interview. GPT-4. Il a souligné que le lancement de ChatGPT nécessite la participation conjointe des agences de régulation et de l'ensemble de la société, et que diverses réactions peuvent aider à prévenir les impacts négatifs potentiels de la technologie de l'intelligence artificielle sur les êtres humains. Il a ajouté qu'il avait été en « contact régulier » avec des responsables gouvernementaux.

En quelques mois seulement depuis le lancement de ChatGPT, le nombre d'utilisateurs actifs mensuels a dépassé les 100 millions et est reconnue comme l'application grand public à la croissance la plus rapide de l'histoire. Selon une étude de l’UBS, il a fallu neuf mois à TikTok pour attirer 100 millions d’utilisateurs actifs par mois, et à Instagram près de trois ans.

Bien qu'il ne soit pas encore parfait, Altman a déclaré que GPT-4 a obtenu un bon score de 90e à l'examen de droit américain et a obtenu un score presque parfait au test de mathématiques SAT. GPT-4 peut désormais écrire du code informatique avec compétence dans la plupart des langages de programmation du marché.

GPT-4 n'est qu'un petit pas vers la création ultime d'une intelligence artificielle générale par OpenAI. Lorsque la technologie de l'intelligence artificielle fera des progrès révolutionnaires, des systèmes d'intelligence artificielle plus intelligents que les humains apparaîtront. C'est ce qu'on appelle l'intelligence artificielle générale.

Bien qu'Altman loue le succès de son produit, il admet également que les dangers possibles de l'intelligence artificielle l'empêchent de dormir la nuit.

Je crains particulièrement que ces modèles ne soient utilisés pour générer de la désinformation à grande échelle", a déclaré Altman. "Maintenant qu'ils s'améliorent de plus en plus dans l'écriture de code informatique, ils peuvent être utilisés pour des cyberattaques offensives."

Mais Al Terman ne croit pas que les modèles d’intelligence artificielle n’auront plus besoin des humains comme le décrit la science-fiction, prenant des décisions par eux-mêmes et complotant la domination du monde. "Il attend que quelqu'un lui fournisse des informations", a déclaré Altman. "C'est toujours un outil contrôlé par l'homme. Cependant, Altman a déclaré qu'il s'inquiète de savoir qui contrôlera l'intelligence artificielle." "Il y aura toujours des gens qui ne respecteront pas certaines des règles de sécurité que nous avons fixées", a-t-il ajouté. "Je pense qu'il ne reste pas beaucoup de temps à la société dans son ensemble pour comprendre comment réagir à cela. , comment la réguler, comment y faire face. »

Quand il commente l'idée selon laquelle la maîtrise de la technologie de l'intelligence artificielle pourrait « dominer le monde », Altman a déclaré : « C'est certainement une déclaration effrayante. » « Au contraire, qu'est-ce que J'espère que nous continuerons à développer des systèmes de plus en plus puissants qui permettent aux gens d'utiliser ces systèmes de différentes manières, permettant au système de s'intégrer dans notre vie quotidienne et dans l'économie, pour donner pleinement suite aux souhaits des gens. Préoccupations concernant la désinformation

Selon OpenAI, GPT-4 a apporté d'énormes améliorations grâce à l'itération, comme la capacité de comprendre les images en entrée. Des démonstrations ont montré que le GTP-4 peut décrire le contenu d'un réfrigérateur, résoudre des énigmes et même élucider les significations cachées derrière les images Internet.

Mais Altman a déclaré que le problème inhérent aux modèles linguistiques d'intelligence artificielle tels que ChatGPT est la désinformation, et le programme peut fournir aux utilisateurs des informations factuellement inexactes.

Altmann a déclaré : « Ce que je veux le plus rappeler aux gens, c'est ce qu'on appelle le « problème de l'illusion ». » « Ce modèle énoncera en effet une chose avec confiance, faisant passer quelque chose de complètement fabriqué pour un fait.

Selon OpenAI, Les modèles d’IA souffrent de ce problème en partie parce qu’ils utilisent un raisonnement déductif plutôt que la mémoire.

Mira Murati, directrice de la technologie d'OpenAI, a déclaré un jour : "L'une des plus grandes différences entre GPT-3.5 et GPT-4 est que ce dernier a des capacités émergentes de raisonnement plus fortes.

Murati a déclaré : "L'objectif est que l'IA prédise." quel mot viendra ensuite, qui est une compréhension de la nature du langage." "Nous voulons que ces modèles voient et comprennent le monde comme le font les humains."

"Vous devez comprendre que le modèle que nous développons est un moteur d'inférence, pas une base de données d'informations factuelles", a déclaré Altman. "Bien sûr, ils peuvent également être utilisés comme bases de données factuelles, mais ce n'est pas spécial. Ce que nous voulons qu'ils réalisent. C'est le raisonnement, pas la mémoire."

Altman et son équipe espèrent qu'"avec le temps, ce modèle deviendra un véritable moteur de raisonnement", a-t-il déclaré, et que le modèle finira par s'appuyer sur Internet. informations et faire votre propre raisonnement déductif pour discerner quelles informations sont factuelles et lesquelles sont fictives. Selon les données d'OpenAI, GPT-4 est 40 % plus susceptible de produire des informations précises que les versions précédentes. Mais Altman a déclaré que les gens ne devraient pas compter sur le système comme source principale d'informations précises et a encouragé les utilisateurs à examiner attentivement les résultats générés par le programme.

Comment se protéger contre les méchants

De nombreuses personnes s'inquiètent également du type d'informations que ChatGPT et d'autres modèles linguistiques d'intelligence artificielle généreront. Selon Altman, ChatGPT ne dira pas aux utilisateurs comment fabriquer une bombe en raison des mesures de sécurité intégrées au système.

"Ce qui me préoccupe, c'est que... nous ne sommes pas les seuls à créer cette technologie", a déclaré Altman. "Il y aura toujours des gens qui n'ajouteront pas certaines mesures de sécurité comme nous le faisons."

Selon Altman, il existe des solutions et des garanties pour tous ces dangers potentiels de l'intelligence artificielle. La première consiste à laisser la société jouer avec ChatGPT lorsque les enjeux sont faibles pour voir comment les gens l'utilisent.

Mulati a déclaré que la principale raison pour laquelle ChatGPT est désormais ouvert au public est de « recueillir beaucoup de commentaires ». Elle estime qu'à mesure que le public continue de tester les applications OpenAI, il deviendra plus facile de déterminer où des mesures de sécurité sont nécessaires.

Mulati a déclaré : "Pourquoi les gens les utilisent, quels problèmes ils ont, quelles sont leurs lacunes, tout nous permet d'intervenir à temps et d'améliorer la technologie."

Altman a également souligné que le public peut interagir avec chaque version de ChatGPT. Il est important d'interagir. Il a déclaré : « Si nous nous contentons de nous asseoir dans le laboratoire et de mener des recherches secrètes, comme développer GPT-7, puis de les rendre publiques d'un seul coup... Je pense que cela entraînera davantage d'effets négatifs. « Les gens ont besoin de temps pour se rafraîchir. » leur compréhension. , réagir et enfin s'habituer à cette technologie, nous avons également besoin de temps pour comprendre où se trouvent les lacunes du système et comment atténuer les effets négatifs. "

Altman a révélé qu'OpenAI dispose d'une équipe dédiée à la formulation des politiques, et ils décident quelles informations peuvent être saisies et quelles informations ChatGPT peut partager avec les utilisateurs.

Altman a ajouté : "(Nous) discutons avec des experts en politique et en sécurité pour examiner le système, juste pour résoudre ces problèmes et lancer quelque chose que nous pensons sûr et fiable." "Encore une fois, nous ne pouvons pas le rendre parfait du premier coup." temps, mais il est important de tirer des leçons et de trouver des marges de sécurité lorsque les risques sont relativement faibles. cela déplacera les emplois existants. L’intelligence artificielle pourrait remplacer certains emplois dans un avenir proche, a déclaré Altman, mais cela dépendra de la rapidité avec laquelle cela se produira.

Altmann a déclaré : "Je pense qu'au cours de plusieurs générations, les humains ont prouvé leur capacité à s'adapter aux changements technologiques majeurs." "Mais si cela se produit dans quelques années, je m'inquiète surtout des changements qui se produiront." apporté... …”

Mais il a encouragé les gens à considérer ChatGPT comme un outil, et non comme un remplacement de leur propre travail. Altman a ajouté : "La créativité humaine est illimitée. Nous trouverons de nouveaux emplois et de nouvelles choses à faire."

Altman pense qu'en tant qu'outil humain, ChatGPT a plus d'effets qu'il n'apporte de risques.

Il a déclaré : "Nous pouvons tous avoir dans notre poche un excellent éducateur sur mesure pour nous aider à apprendre." "Nous pouvons fournir des conseils médicaux à tout le monde, ce que nous ne pouvons pas réaliser aujourd'hui

"Vice Driving"

.

ChatGPT a suscité beaucoup de controverses dans le domaine de l'éducation car certains étudiants utilisent ChatGPT pour tricher. Les enseignants ont des opinions partagées quant à savoir si ChatGPT peut servir d'extension à l'apprentissage des élèves ou s'il affectera la motivation des élèves à apprendre par eux-mêmes.

"La façon dont l'éducation doit changer, mais cela s'est produit à plusieurs reprises à mesure que la technologie évolue", a déclaré Altman. Il a ajouté que les enseignants des élèves ne seront plus limités à la salle de classe. peut conduire à un meilleur apprentissage personnalisé pour chaque élève. »

Altman et son équipe espèrent que les utilisateurs de tous les domaines pourront considérer ChatGPT comme leur « copilote », par exemple en aidant les utilisateurs à écrire de grandes quantités de code informatique ou à résoudre des problèmes.

"Nous pouvons fournir des services comme celui-ci à toutes les industries afin que les gens puissent avoir une meilleure qualité de vie", a déclaré Altman. "Nous aurons également de nouvelles choses qui ne sont même pas imaginables aujourd'hui, et c'est notre promesse. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer