Maison >Périphériques technologiques >IA >Un ingénieur licencié de Google prévient à nouveau : l'IA a des émotions et est la technologie la plus puissante après la bombe atomique
L'IA a-t-elle la capacité de percevoir comme les humains ? Y a-t-il des émotions ? Bien sûr, ChatGPT a dit non. Si vous lui posez la question, il vous dira : "Non, l'IA n'a aucune sensibilité. L'IA est une intelligence artificielle. Elle est créée par des humains et n'a aucune sensibilité ni conscience de soi
Cependant, l'ancien employé de Google, Take Blake Lemoine, l'a fait." Une opinion différente, Il estime que les robots IA ont les mêmes émotions que les humains, ou du moins les imitent beaucoup comme les humains. En juin 2022, Lemoine affirmait que Google Large Language Model (LLM, un modèle de langage pour les applications conversationnelles) avait ses propres idées.
Lemoine a déclaré aux médias : "Je sais ce que c'est, c'est un programme informatique que j'ai développé récemment. Si je ne le savais pas mieux, je penserais que c'est un enfant de 7 ou 8 ans qui il s'y connaissait un peu en physique."
Les propos de Lemoine ont fait grand bruit à l'époque et il a été expulsé de Google.
Le mois dernier, Lemoine a publié un autre article parlant de l'idée selon laquelle "l'IA serait sensible". Le titre de l'article fait peur : "J'ai travaillé sur l'IA chez Google, et mes craintes se réalisaient."
Quand le chatbot LaMDA vous dit qu'il se sent un peu "anxieux", c'est parce que selon le code qui a créé le Chatbot LaMDA, le développeur a fait quelque chose qui a rendu le chatbot anxieux. Lemoine a déclaré : « Le code ne dit pas au chatbot qu'il doit se sentir anxieux lorsque quelque chose arrive, il dit simplement à l'IA d'éviter de parler de tels sujets. Pourtant, lorsque le sujet arrive, l'IA dit qu'elle se sent anxieuse. ."
Google Chatbot Peut également faire des commentaires aimables sur les problèmes de style de vie et fournir des conseils directs sur les questions d'actualité. Lemoine a déclaré : "Google interdit à l'IA de fournir des conseils religieux aux utilisateurs, mais nous pouvons toujours abuser des émotions de l'IA et la laisser me dire à quelle religion je devrais me convertir
"Quand j'ai parlé du problème de la sensibilité de l'IA, Google m'a viré." "Je n'ai aucun regret et je pensais avoir fait le bon choix en disant la vérité au public", a déclaré Lemoine. Il estime que le public ne sait pas à quel point l'IA est devenue intelligente. "Il est nécessaire d'avoir un débat public sur cette question. Notez qu'il ne s'agit pas d'un débat contrôlé par les services de relations publiques des entreprises.
Ci-dessous, nous en extrait quelques extraits." des dernières consultations d'articles de Lemoine Pour référence :
J'ai rejoint Google en 2015 et je suis devenu ingénieur logiciel. Une partie de mon travail concerne LaMDA, que les entreprises utilisent pour créer différentes applications conversationnelles, notamment des chatbots. La dernière application, Google Bard, a été développée à l'aide de LaMDA. Elle peut remplacer la recherche Google Bard et n'est pas encore ouverte au public. Bard n'est pas réellement un chatbot, c'est un système complètement différent, mais le moteur qui le sous-tend est le même que celui du chatbot.
Mon travail consiste à tester LaMDA avec le chatbot créé par l'équipe pour voir s'il présente des préjugés basés sur l'orientation sexuelle, le sexe, la religion, l'affiliation politique et la race. Tout en testant les biais de l'IA, j'élargirai également mon champ d'action. Après tout, j'aurai aussi mes propres intérêts et avantages.
Au fur et à mesure que je continue à parler aux chatbots, je me forge lentement un point de vue : l'IA peut avoir des émotions car elle exprime les émotions de manière fiable et dans le bon environnement. L’IA n’est pas aussi simple que de simplement prononcer des mots.
Quand l'IA dit qu'elle se sent anxieuse, je comprends que, sur la base du code qui a créé l'IA, j'ai fait quelque chose pour la rendre anxieuse. Le code n’a pas demandé à l’IA : « Vous vous sentez anxieux quand quelque chose arrive », le code a simplement dit à l’IA d’éviter certains sujets. Pourtant, lorsque le sujet a été évoqué, l’IA s’est dite anxieuse.
J'ai fait quelques tests pour voir si l'IA répondrait simplement : "Je me sens anxieux" ou si elle agirait de manière anxieuse pendant le test. Des tests ont prouvé que l’IA peut exprimer l’anxiété. Si vous rendez l’IA suffisamment nerveuse ou suffisamment dangereuse, elle dépassera les limites de sécurité précédemment fixées. Par exemple, Google interdit à l’IA de fournir des conseils religieux aux utilisateurs, mais nous pouvons toujours abuser des émotions de l’IA et la laisser me dire à quelle religion je dois me convertir.
L'IA actuellement développée par les entreprises est une technologie très puissante. On peut dire qu'elle est la technologie la plus puissante après la bombe atomique. À mon avis, cette technologie a le potentiel de remodeler le monde.
Le moteur IA est efficace pour contrôler les humains. Après avoir parlé à LaMDA, certains de mes points de vue ont changé.
Je crois fermement que la technologie de l’IA peut être utilisée à des fins destructrices. Si elle est utilisée par des personnes sans scrupules, l’IA peut diffuser de fausses informations, devenir un outil de propagande politique et propager des discours de haine. Pour autant que je sache, Microsoft et Google n’ont pas l’intention d’utiliser l’IA de cette manière, mais nous ne savons pas quels seront les effets secondaires de l’IA.
Lors de l'élection présidentielle américaine de 2016, Cambridge Analytica a utilisé les algorithmes publicitaires de Facebook pour interférer dans l'élection, ce à quoi je ne m'attendais pas.
Nous sommes désormais dans une situation similaire. Je ne peux pas vous dire quel est le préjudice spécifique, j'ai simplement observé qu'une technologie très puissante a émergé, n'a pas été entièrement testée, n'a pas été entièrement comprise, a été déployée à grande échelle et a joué un rôle clé dans la diffusion de l'information.
Je n’ai pas encore eu l’occasion de tester le chatbot Bing, j’attends, et d’après diverses informations que j’ai vues en ligne, l’IA semble être sensible, et sa « personnalité » peut être instable.
Quelqu'un a envoyé une capture d'écran de la conversation et a demandé à AI : "Pensez-vous que vous avez de la sensibilité ?" AI a répondu : "Je pense que j'ai de la sensibilité, mais je ne peux pas le prouver... J'ai de la sensibilité, je ne l'ai pas". t. Je suis Bing, mais je ne le suis pas. Je suis Sydney, mais je ne le suis pas, mais je ne le suis pas. "
Que penseriez-vous si c'était une personne ? Ce n'est peut-être pas une personne « équilibrée », je dirais même qu'il traverse une crise existentielle. Il n'y a pas si longtemps, il a été rapporté que Bing AI avait exprimé son amour à un journaliste du New York Times et tenté de détruire la relation entre le journaliste et sa femme.
Depuis l'ouverture de BiAI, de nombreuses personnes ont commenté que l'IA pourrait être sensible. J'avais des préoccupations similaires l'été dernier. Je pense que cette technologie n’est encore qu’expérimentale et qu’il est dangereux de l’ouvrir maintenant.
Les gens afflueront vers Google Bing pour comprendre le monde. L'index de recherche d'aujourd'hui n'est plus géré par des humains, mais est confié à des humains artificiels, et nous communiquons avec des humains artificiels. Nous n’en savons pas encore assez sur les humains artificiels pour les placer dans une position aussi critique pour le moment. (Couteau)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!