Maison  >  Article  >  Périphériques technologiques  >  Débat brûlant dans la Silicon Valley : l’IA détruira-t-elle l’humanité ?

Débat brûlant dans la Silicon Valley : l’IA détruira-t-elle l’humanité ?

王林
王林avant
2023-05-30 23:18:001302parcourir

Débat brûlant dans la Silicon Valley : l’IA détruira-t-elle l’humanité ?

Actualité du 22 mai, alors que les nouvelles technologies telles que l'intelligence artificielle générative sont devenues un nouvel engouement dans le monde de la technologie, le débat sur la question de savoir si l'intelligence artificielle détruira l'humanité s'est intensifié. Un éminent leader technologique a averti que l’intelligence artificielle pourrait conquérir le monde. D’autres chercheurs et dirigeants affirment que ces affirmations relèvent de la science-fiction.

Lors de l'audience du Congrès américain qui s'est tenue la semaine dernière, Sam Altman, PDG de la startup d'intelligence artificielle OpenAI, a clairement rappelé à tous que la technologie divulguée par l'entreprise comporte des risques de sécurité.

Altman a averti que les technologies d'intelligence artificielle telles que les chatbots ChatGPT pourraient entraîner des problèmes tels que la désinformation et la manipulation malveillante, et a appelé à une réglementation.

Il a déclaré que l'intelligence artificielle pourrait "causer de graves dommages au monde".

Le témoignage d'Altman devant le Congrès américain intervient alors que le débat sur la question de savoir si l'intelligence artificielle dominera le monde devient courant, avec des divisions croissantes à travers la Silicon Valley et ceux qui travaillent à promouvoir la technologie de l'IA.

Certaines personnes croyaient autrefois que le niveau d'intelligence des machines pourrait soudainement dépasser les humains et décider de détruire les humains. Aujourd'hui, cette idée marginale gagne le soutien de plus en plus de personnes. Certains scientifiques éminents pensent même que le temps nécessaire aux ordinateurs pour surpasser les humains et les contrôler sera raccourci.

Mais de nombreux chercheurs et ingénieurs affirment que même si de nombreuses personnes s'inquiètent de l'émergence d'une intelligence artificielle tueuse comme Skynet dans le film "Terminator", en réalité, ces inquiétudes ne sont pas fondées sur une logique et une bonne science. Au lieu de cela, cela détourne l’attention des problèmes réels que cette technologie pose déjà, y compris ceux décrits par Altman dans son témoignage. La technologie actuelle de l’IA obscurcit les droits d’auteur, exacerbe les inquiétudes concernant la confidentialité et la surveillance numériques, et pourrait être utilisée pour améliorer la capacité des pirates informatiques à violer les défenses du réseau.

Google, Microsoft et OpenAI ont tous rendu publiques des technologies révolutionnaires en matière d'intelligence artificielle. Ces technologies peuvent mener des conversations complexes avec les utilisateurs et générer des images basées sur de simples invites textuelles. Le débat sur l’intelligence artificielle maléfique s’est enflammé.

«Ce n'est pas de la science-fiction», déclare Geoffrey Hinton, le parrain de l'intelligence artificielle et ancien employé de Google. Hinton a déclaré qu’une intelligence artificielle plus intelligente que les humains pourrait émerger d’ici cinq à 20 ans, contre 30 à 100 ans selon son estimation précédente.

"C'est comme si des extraterrestres avaient atterri sur Terre ou étaient sur le point de le faire", a-t-il déclaré. "Nous ne pouvons vraiment pas l'accepter car ils parlent couramment, ils sont utiles, ils écrivent de la poésie et répondent à des lettres ennuyeuses. Mais ce sont vraiment des extraterrestres

Pourtant, au sein des grandes entreprises technologiques, de nombreux ingénieurs sont proches du monde." la technologie ne pense pas que l’IA remplaçant les humains soit quelque chose dont nous devons nous inquiéter en ce moment.

Sara Hooker, directrice de Cohere for AI, un laboratoire de recherche appartenant à la startup d'intelligence artificielle Cohere et ancienne chercheuse de Google, a déclaré : « Parmi les chercheurs activement engagés dans ce sujet, beaucoup moins sont préoccupés par les risques réels actuels. plus de gens se soucient des risques pour la survie humaine. "

Il existe actuellement de nombreux risques réels, tels que la publication de robots entraînés avec de mauvais contenus qui approfondiront les préjugés et la discrimination ; la plupart des données de formation à l'intelligence artificielle sont en anglais. Principalement originaires d'Amérique du Nord ou d'Europe, cela peut rendre Internet encore plus éloigné de la langue et de la culture de la majorité des gens ; ces robots inventent également souvent de fausses informations et les déguisent en faits, dans certains cas ; boucle infinie de dialogue avec les utilisateurs attaquants. De plus, les gens ne sont pas conscients des effets d’entraînement de cette technologie. Tous les secteurs se préparent aux perturbations ou aux changements que l’intelligence artificielle pourrait apporter. Même les emplois bien rémunérés, comme ceux des avocats ou des médecins, seront remplacés.

Certaines personnes pensent également que l'intelligence artificielle pourrait nuire aux humains à l'avenir, voire contrôler la société entière d'une manière ou d'une autre. Même si les risques existentiels pour l’humanité semblent plus graves, nombreux sont ceux qui estiment qu’ils sont plus difficiles à quantifier et moins tangibles.

"Il y a un groupe de personnes qui pensent que ce ne sont que des algorithmes. Ils ne font que répéter ce qu'ils voient en ligne.", a déclaré Sundar Pichai, PDG de Google, dans une interview en avril de cette année : "Il y a aussi un point de vue selon lequel ces algorithmes émergent avec de nouvelles fonctionnalités, créativité, capacités de raisonnement et de planification "Nous devons traiter cette question avec soin"

.

Ce débat découle des percées continues de la technologie d'apprentissage automatique dans le domaine de l'informatique au cours des 10 dernières années. L'apprentissage automatique crée des logiciels et des technologies capables d'extraire de nouvelles informations à partir de grandes quantités de données sans instructions explicites de la part des humains. Cette technologie est omniprésente dans des applications allant des algorithmes de médias sociaux aux moteurs de recherche en passant par les programmes de reconnaissance d'images.

L'année dernière, OpenAI et plusieurs autres petites entreprises ont commencé à publier des outils utilisant une nouvelle technologie d'apprentissage automatique : l'intelligence artificielle générative. Ce soi-disant grand modèle de langage, qui s'entraîne sur des milliards de photos et de phrases extraites du Web, peut générer des images et du texte sur la base de simples invites, mener des conversations complexes avec les utilisateurs et écrire du code informatique.

Anthony Aguirre, directeur exécutif du Future of Life Institute, a déclaré que les grandes entreprises se précipitent pour développer des machines de plus en plus intelligentes avec peu ou pas de réglementation. Le Future of Life Institute a été créé en 2014 pour étudier les risques pour la société. Grâce au financement du PDG de Tesla, Elon Musk, l’institut a commencé à étudier la possibilité que l’intelligence artificielle détruise l’humanité en 2015. Aguirre a déclaré que si l'intelligence artificielle acquiert de meilleures capacités de raisonnement que les humains, elle tentera de parvenir à la maîtrise de soi. C’est une chose dont les gens devraient s’inquiéter, tout comme un problème réel qui existe actuellement.

Il a déclaré : "Comment les contraindre à ne pas s'écarter de la piste deviendra de plus en plus complexe." "De nombreux romans de science-fiction l'ont déjà rendu très précis

En mars de cette année, Aguirre a contribué à la rédaction d'une lettre ouverte." , appelant à un moratoire de six mois sur la formation de nouveaux modèles d’intelligence artificielle. Cette lettre ouverte a reçu un total de 27 000 signatures en faveur de Yoshua Bengio, chercheur principal en intelligence artificielle qui a remporté la plus haute récompense en informatique en 2018, et d'Emma, ​​​​​​PDG de l'une des start-ups d'intelligence artificielle les plus influentes. Emad Mostaque était parmi eux.

Le musc est sans aucun doute le plus accrocheur d’entre eux. Il a contribué à la création d'OpenAI et est maintenant en train de créer sa propre société d'IA, investissant récemment dans l'équipement informatique coûteux nécessaire à la formation des modèles d'IA.

Depuis de nombreuses années, Musk pense que les humains devraient être plus prudents quant aux conséquences du développement d’une super intelligence artificielle. Dans une interview lors de l'assemblée annuelle des actionnaires de Tesla la semaine dernière, Musk a déclaré qu'il avait initialement financé OpenAI parce qu'il estimait que le co-fondateur de Google, Larry Page, était « cavalier » face à la menace de l'intelligence artificielle.

La version américaine de Zhihu Quora développe également son propre modèle d'intelligence artificielle. Le PDG de l’entreprise, Adam D’Angelo, n’a pas signé la lettre ouverte. En parlant de la lettre ouverte, il a déclaré : « Les gens ont des motivations différentes lorsqu'ils font cette proposition.

Le PDG d'OpenAI, Altman, n'approuve pas non plus le contenu de la lettre ouverte. Il a déclaré qu'il était d'accord avec certaines parties de la lettre ouverte, mais que le manque général de « détails techniques » n'était pas la bonne manière de réglementer l'intelligence artificielle. Altman a déclaré lors de l'audition de mardi dernier sur l'intelligence artificielle que l'approche de son entreprise consistait à rendre publics les outils d'IA le plus tôt possible afin d'identifier et de résoudre les problèmes avant que la technologie ne devienne plus puissante.

Mais il y a un débat croissant dans le monde de la technologie sur les robots tueurs. Certaines des critiques les plus sévères proviennent de chercheurs qui étudient les failles de la technologie depuis des années.

En 2020, les chercheurs de Google Timnit Gebru et Margaret Mitchell et Emily M. Bender, chercheuse à l'Université de Washington, ont co-écrit un article avec Angelina McMillan-Major. Ils soutiennent que la capacité croissante des grands modèles linguistiques à imiter les humains augmente le risque que les gens pensent qu’ils sont sensibles.

Au lieu de cela, ils soutiennent que ces modèles devraient être compris comme un « perroquet aléatoire », ou simplement comme étant très efficaces pour prédire quel mot viendra ensuite dans une phrase uniquement basée sur la probabilité, sans qu'il soit nécessaire de comprendre ce qu'ils disent. D'autres critiques qualifient les grands modèles linguistiques d'« auto-complétion » ou de « lavements de connaissances ».

Ils ont documenté en détail comment de grands modèles de langage peuvent générer par script des contenus sexistes et autres contenus préjudiciables. Gebru a déclaré que le journal avait été supprimé par Google. Après avoir insisté pour publier l'article publiquement, Google l'a licenciée. Quelques mois plus tard, l'entreprise a de nouveau licencié Mitchell.

Quatre co-auteurs de cet article ont également écrit une lettre en réponse à la lettre ouverte signée par Musk et d'autres.

« Il est dangereux de nous distraire avec une utopie ou une apocalypse imaginaire de l’IA », disent-ils. « Au lieu de cela, nous devrions nous concentrer sur les pratiques d’exploitation très réelles des sociétés de développement qui concentrent rapidement leurs efforts sur l’exacerbation des inégalités sociales. »

Google a refusé de commenter le licenciement de Gebru à l'époque, mais a déclaré que de nombreux chercheurs travaillent encore sur l'intelligence artificielle responsable et éthique.

"Il ne fait aucun doute que l'intelligence artificielle moderne est puissante, mais cela ne signifie pas qu'elle constitue une menace imminente pour la survie humaine", a déclaré Hook, directeur de la recherche sur l'intelligence artificielle chez Cohere.

Actuellement, une grande partie du débat sur la rupture entre l’intelligence artificielle et le contrôle humain se concentre sur la façon dont elle peut rapidement surmonter ses propres limites, un peu comme Skynet dans The Terminator.

"La plupart des technologies et les risques qui existent dans la technologie évoluent avec le temps", a déclaré Hook. "La plupart des risques sont exacerbés par les limitations technologiques qui existent actuellement

L'année dernière, Google a licencié le chercheur en intelligence artificielle Blake Lemon (Blake Lemoine)." . Il a déclaré un jour dans une interview qu'il croyait fermement que le modèle d'intelligence artificielle LaMDA de Google avait des capacités sensibles. À l’époque, Lemon a été vertement réprimandé par de nombreux acteurs de l’industrie. Mais un an plus tard, de nombreux acteurs de la communauté technologique ont commencé à accepter son point de vue.

Hinton, un ancien chercheur de Google, a déclaré que ce n'est que récemment qu'il a changé d'avis sur les dangers potentiels de cette technologie après avoir utilisé les derniers modèles d'intelligence artificielle. Hinton a posé au programme informatique des questions complexes qui, à son avis, nécessitaient que le modèle d'IA comprenne approximativement sa demande plutôt que de simplement prédire les réponses possibles sur la base des données d'entraînement.

En mars de cette année, des chercheurs de Microsoft ont déclaré qu'en étudiant le dernier modèle GPT4 d'OpenAI, ils avaient observé une « étincelle d'intelligence artificielle générale », qui fait référence à une intelligence artificielle capable de penser de manière indépendante comme les humains.

Microsoft a dépensé des milliards de dollars pour travailler avec OpenAI pour développer le chatbot Bing. Les sceptiques pensent que Microsoft construit son image publique autour de la technologie de l’intelligence artificielle. Cette technologie est toujours considérée comme plus avancée qu’elle ne l’est en réalité, et Microsoft a beaucoup à y gagner.

Les chercheurs de Microsoft croient dans l'article que cette technologie a développé une compréhension spatiale et visuelle du monde basée uniquement sur le contenu textuel sur lequel elle a été formée. GPT4 peut automatiquement dessiner une licorne et décrire comment empiler des objets aléatoires, y compris des œufs, les uns sur les autres afin que les œufs ne se cassent pas.

L'équipe de recherche de Microsoft a écrit : « En plus de maîtriser le langage, GPT-4 peut également résoudre une variété de nouveaux problèmes complexes impliquant les mathématiques, la programmation, la vision, la médecine, le droit, la psychologie et d'autres domaines sans aucune invite particulière. » Ils ont conclu. que les capacités de l’IA sont comparables à celles des humains dans de nombreux domaines.

Cependant, l'un des chercheurs a admis que même si les chercheurs en intelligence artificielle ont tenté de développer des normes quantitatives pour évaluer l'intelligence des machines, la définition de «l'intelligence» reste encore très délicate.

Il a déclaré : « Ils sont tous problématiques ou controversés. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer