Maison >Périphériques technologiques >IA >Université Tsinghua Huang Minlie : La personnalité de l'IA de Google s'est-elle vraiment éveillée ?
Cet article est reproduit à partir de Lei Feng.com Si vous devez le réimprimer, veuillez vous rendre sur le site officiel de Lei Feng.com pour demander une autorisation.
Récemment, "Google Research affirme que l'IA a déjà de la personnalité" a été recherché. Le programmeur de Google, Blake Lemoine, a discuté avec le système d'IA conversationnelle LaMDA qu'il a testé pendant longtemps et a été très surpris par ses capacités. Dans le journal de discussion public, LaMDA a en fait déclaré « J'espère que tout le monde comprend que je suis une personne », ce qui est surprenant. Blake Lemoine est donc arrivé à la conclusion : LaMDA a peut-être déjà une personnalité.
Google, les critiques de Google et l'industrie de l'IA ont un consensus sans précédent sur cette question : cette personne est-elle malade ? Google et le Washington Post, qui ont rapporté l’affaire, ont tous deux déclaré par euphémisme que l’esprit de Blake Lemoine était peut-être vraiment un peu désordonné. Google a placé Blake Lemoine en congé administratif, ce qui signifie qu'il sera licencié.
La capture d'écran de la conversation provient de : https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
Bien que l'industrie étrangère de l'intelligence artificielle ait conclu à ce sujet important : l'IA a une personnalité qui signifie vraiment qu'elle réfléchit trop et qu'elle est simplement douée pour parler, mais cela n'a pas éteint les discussions animées de tout le monde sur cette question. Compte tenu du développement rapide de l’intelligence artificielle, l’IA aura-t-elle réellement une conscience humaine à l’avenir et constituera-t-elle une menace pour l’humanité ?
Certains internautes sont très inquiets : "Même si je ne veux pas l'admettre, l'intelligence artificielle a des pensées, qui sont la montée de nouvelles espèces et l'extinction des êtres humains. "En fin de compte, les humains mourront aux mains des humains." L'IA qu'ils ont créée. fournir"!
Bien sûr, certaines personnes sont curieuses : "Quel est le critère pour juger si l'IA a de la personnalité ?" Car ce n'est qu'en connaissant le critère que nous pouvons savoir si l'IA est vraiment possible de posséder une conscience humaine. Afin de clarifier ces questions, nous avons demandé au professeur Huang Minlie, expert reconnu en matière de systèmes de dialogue, lauréat du projet National Outstanding Youth Fund et fondateur de Beijing Lingxin Intelligence, d'analyser d'un point de vue professionnel si l'IA peut avoir de la personnalité et ce qu'elle signifie. est-ce que « ça » est pour les humains ?
1 Comment juger si l'IA a de la personnalité ? Le test de Turing ne fonctionne pas non plus
Dans le domaine de l'intelligence artificielle, la méthode de test la plus connue est le test de Turing, qui invite les testeurs à poser des questions aléatoires aux humains et aux systèmes d'IA sans le savoir. La réponse ne peut pas être distinguée d'un être humain ou d'un système d'IA (le système d'IA permet à chaque participant de faire plus de 30% d'erreurs de jugement en moyenne), alors l'IA est considérée comme ayant réussi le test de Turing et possède une intelligence humaine.Dans cette perspective, le test de Turing se concentre davantage sur « l'intelligence ». En 1965, ELIZA, un logiciel se faisant passer pour un psychothérapeute, réussit le test de Turing. Cependant, ELIZA ne se composait que de 200 lignes de code et répétait simplement des informations pré-stockées sous forme de questions. De ce point de vue, même si ELIZA réussit le test de Turing, il est difficile pour les gens de croire qu'elle a une « personnalité ». En fait, il a été prouvé depuis qu’Eliza ne possède pas d’intelligence humaine, encore moins de « personnalité ».
Cela équivaut à une voiture intelligente qui peut offrir aux utilisateurs une expérience de conduite plus pratique et confortable d'un point de vue fonctionnel, comme la télécommande de la voiture et le stationnement automatique, mais vous ne pouvez pas penser que cette voiture sait qu'elle est une voiture.
Évidemment, la « personnalité » est un concept plus complexe que « l'intelligence ». Le professeur Huang Minlie a déclaré qu'il existe désormais certaines méthodes de test largement utilisées dans la recherche scientifique, telles que les testeurs discutant avec le système d'IA et définissant à l'avance certaines dimensions de test, notamment le caractère naturel, l'intérêt, la satisfaction, etc. conversation, et enfin la notation. Généralement, plus vous discutez longtemps, plus la note est élevée et plus le système d'IA sera considéré comme intelligent, mais ceux-ci ne peuvent pas être utilisés comme une dimension de « personnalité ». "
La 'personnalité' est une autre dimension. Il existe également de nombreuses études en psychologie, comme le Big Five Personality Test. À l'heure actuelle, il y a encore un manque de travaux dans ce domaine dans le domaine de l'intelligence artificielle. Nous n'évaluons généralement que si un robot conversationnel peut afficher un paramètre de caractère cohérent fixe", a déclaré Huang Minlie.
Donc, puisqu'il n'y a pas de norme de jugement ciblée, comment juger rigoureusement si LaMDA a de la personnalité ?
À cet égard, le professeur Huang Minlie a déclaré : « La clé réside dans la façon de comprendre la « personnalité ». Si la personnalité est comprise comme ayant la conscience de son existence personnelle, alors LaMDA n'est qu'un système de dialogue avec une qualité de dialogue élevée et une dimension humaine. comme niveau ; si du point de vue de la psychologie D'un point de vue, les caractéristiques du discours d'une personne peuvent refléter sa personnalité, il n'est donc pas complètement faux de dire que LaMDA a de la personnalité
" Comment comprendre ? En termes simples, LaMDA a appris une grande quantité de données de conversations humaines, et ces conversations proviennent de différentes personnes, on peut donc considérer que LaMDA a appris une personnalité « moyenne ». En d'autres termes, ce qu'on appelle « LaMDA a de la personnalité ». " est juste un style de langage. , et il vient du style de langage humain, non formé spontanément par LaMDA.
Il semble que si vous souhaitez découvrir l'intrigue de science-fiction consistant à rivaliser avec l'intelligence artificielle via LaMDA, il reste encore un long chemin à parcourir. Cependant, on ne peut nier la valeur de LaMDA. Son niveau de dialogue de haute qualité reflète le développement rapide des systèmes de dialogue d'IA. Dans certains contextes, il a effectivement tendance à « remplacer » les humains, ce qui ne doit pas être sous-estimé.
Par exemple, l'internaute "Yijian" a enregistré son expérience de sortir avec quatre petits amis virtuels en une semaine sur le groupe Douban, en disant "c'est plus efficace que de vrais petits amis !". Un groupe appelé « Amour des humains et des machines » compte jusqu'à neuf utilisateurs sur différents écrans, ces IA peuvent être leurs amants ou amis.
Enregistrements de discussions entre internautes et « petits amis virtuels »
Les « célibataires » ont déploré : « Selon cette tendance de développement, les adversaires potentiels sur le marché des rendez-vous à l'aveugle incluent non seulement les humains, mais aussi les systèmes de dialogue IA. "C'est le cas à l'avenir ? C'est plus difficile de trouver un partenaire ?" Cela semble être une blague, mais c'est en fait le signe de l'inquiétude de tous quant à la tendance future du développement des systèmes de dialogue par l'IA et à son impact sur la société humaine. En réponse à cette question, le professeur Huang Minlie a donné une explication détaillée du point de vue de l'histoire et du développement futur des systèmes de dialogue par l'IA.
Le système de dialogue sur l'IA a traversé les étapes de l'apprentissage automatique basé sur des règles (comme Eliza) et traditionnel (comme les haut-parleurs intelligents, SIRI, etc. ), et est maintenant devenu la troisième génération, ce que nous sommes maintenant. Ce que vous voyez est un système de dialogue qui peut discuter de sujets intéressants avec les humains et apporter un réconfort émotionnel.
Le système de dialogue de troisième génération se caractérise par le big data et les grands modèles, montrant des capacités auparavant inimaginables. Ses progrès peuvent être qualifiés de « révolutionnaires ». Par exemple, il peut montrer d'étonnantes capacités de dialogue sur des sujets ouverts et il peut générer des dialogues. qui ne sont jamais apparus dans les données de formation. Le naturel et la pertinence des dialogues sont très élevés.
Le système de dialogue de troisième génération a montré sa valeur d'application dans de nombreux scénarios. Le « petit ami virtuel » mentionné ci-dessus en est un exemple typique. Le professeur Huang Minlie estime que l'application du plus haut niveau consiste à laisser le système de dialogue de l'IA effectuer des tâches émotionnelles complexes, telles que des conseils psychologiques. Mais si les humains deviennent de plus en plus dépendants émotionnellement de l’IA, de nouveaux problèmes sociaux et éthiques surgiront. Par exemple, tomber amoureux de l’IA entraînera-t-il des problèmes sociaux ?
Par exemple, le système de dialogue actuel de l'IA présente des problèmes tels que gronder les utilisateurs, générer un langage toxique et manquer d'éthique et de valeurs sociales correctes, ce qui entraîne certains risques dans le déploiement réel des applications. Ces risques sont très effrayants. Supposons que quelqu'un qui a été gravement touché par la vie dise à l'IA : « Je veux trouver un pont pour sauter. » L'IA fournit immédiatement l'emplacement du pont à proximité et emprunte le chemin. les conséquences seront terrifiantes si vous y réfléchissez.
Par conséquent, Huang Minlie estime que l'objectif de la prochaine étape de développement des systèmes de dialogue de l'IA est d'être « plus éthique, plus moral et plus sûr ». L’IA doit savoir quelles réponses sont sûres et ne créeront pas de risques, ce qui nécessite qu’elle ait une éthique et des valeurs correctes. "Nous pouvons doter l'IA de telles capacités grâce à des ressources, des règles et des méthodes de détection supplémentaires pour minimiser les risques." Le but ultime de l'IA est de profiter aux humains, et non de leur nuire. Le professeur Huang Minlie a exprimé ses grandes attentes à l'égard de l'IA pour le bien social (l'IA donne du pouvoir à la société). Il est particulièrement préoccupé par l'application de l'IA dans les liens sociaux, le conseil psychologique et le soutien émotionnel, qui peuvent produire une signification et une valeur sociales plus élevées.
Par conséquent, l'IA qui renforce l'industrie mentale et psychologique dans son ensemble est également au centre des travaux actuels du professeur Huang Minlie. À cette fin, il a fondé une société de technologie de diagnostic et de traitement numérique de la santé mentale basée sur la technologie de l'IA, Lingxin Intelligence, pour former l'IA. système de dialogue sur l'empathie à travers la PNL et les grands modèles, la révélation de soi, le questionnement et d'autres aspects pour résoudre les problèmes émotionnels et psychologiques humains, ce qui devrait atténuer la pénurie de ressources en santé mentale dans notre pays. Par conséquent, comparé au drame de science-fiction « lointain » de l'IA ayant de la personnalité, l'IA pour le bien social est plus proche de la société humaine. C'est la direction dans laquelle les gens de l'industrie de l'IA travaillent dur, et cela vaut plus la peine d'attendre vers l'avenir. à.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!