Maison >Périphériques technologiques >IA >Il n'est pas trop tard pour se méfier de l'intelligence artificielle

Il n'est pas trop tard pour se méfier de l'intelligence artificielle

王林
王林avant
2023-04-10 09:11:071555parcourir

​Nous ne pouvons pas spécifier des cibles de manière complètement correcte, ni prédire ou prévenir les dégâts que causeront à l’échelle mondiale des machines surpuissantes poursuivant de mauvais objectifs. Nous avons déjà vu des exemples d’algorithmes de réseaux sociaux exploitant les préférences des gens pour optimiser les clics, avec des conséquences désastreuses pour les institutions démocratiques.

Il n'est pas trop tard pour se méfier de l'intelligence artificielle

Nick Bostrom explique comment prendre des risques au sérieux dans son livre de 2014 Superintelligence: Paths, Danger, Strategies Claim. Le magazine "The Economist" a examiné le livre et a conclu : "L'introduction d'une deuxième espèce intelligente sur terre a des conséquences considérables et mérite notre profonde réflexion.

Bien sûr, il y a tellement de choses en jeu." Face à cette situation, les sages réfléchissent déjà beaucoup : s'engager dans des débats sérieux, peser le pour et le contre, chercher des solutions, trouver des failles dans les solutions, etc. Pour autant que je sache, ces efforts ont eu peu de succès et se sont heurtés à toutes sortes de dénégations.

Les arguments de certains chercheurs célèbres en intelligence artificielle ne valent guère la peine d’être réfutés. J'ai vu des dizaines d'affirmations dans des articles ou entendues lors de conférences, en voici quelques-unes :

Les calculatrices électroniques sont sans égal en arithmétique, et les calculatrices ne conquièrent pas le monde, il n'y a donc aucune raison de s'inquiéter de l'intelligence artificielle surhumaine ;

Il n’y a eu aucun exemple dans l’histoire de machines tuant des millions de personnes, et étant donné cela, cela n’arrivera pas à l’avenir.

Il n’existe pas de quantités physiques infinies dans l’univers, et l’intelligence ne fait pas exception, il n’y a donc pas lieu de trop s’inquiéter de la superintelligence.

La réponse la plus courante des chercheurs en intelligence artificielle est peut-être : « Nous pouvons la désactiver. » Alan Turing lui-même a évoqué cette possibilité, mais il n'était pas très sûr de lui :

Si une machine peut penser, elle pensera peut-être de manière plus globale que celle-ci. nous le faisons, alors où serons-nous ? Même si les machines peuvent être amenées à se plier à nous, par exemple en s'arrêtant à des moments critiques, nous, en tant qu'espèce, devrions avoir honte de nous-mêmes... Ce nouveau danger... ne manquera pas de nous inquiéter.

Éteindre la machine ne fonctionnera pas. La raison est très simple. L'entité super intelligente envisagera certainement cette possibilité et prendra des mesures pour l'empêcher. Il ne le fait pas parce qu'il « veut survivre », mais parce qu'il poursuit les objectifs que nous lui avons fixés et sait qu'il échouera s'il est arrêté. Nous ne pouvons pas simplement « l'éteindre », tout comme nous ne pouvons pas battre Alpha Go simplement en plaçant les pièces sur les cases correspondantes du plateau.

D’autres formes de déni conduisent à des idées plus complexes, comme celle selon laquelle l’intelligence a de multiples facettes. Par exemple, une personne peut avoir une intelligence spatiale plus élevée qu’une autre mais moins d’intelligence sociale, nous ne pouvons donc pas toutes les classer par ordre strict d’intelligence. C’est encore plus vrai pour les machines : inutile de comparer « l’intelligence » d’Alpha Go à celle du moteur de recherche Google.

Il nest pas trop tard pour se méfier de lintelligence artificielleKevin Kelly, rédacteur en chef fondateur du magazine Wired et commentateur technologique perspicace, va encore plus loin. "L'intelligence n'est pas une dimension unique, donc "plus intelligent que l'humain" est un concept dénué de sens", a-t-il écrit dans son livre "Le mythe d'une IA surhumaine". À propos de la superintelligence Mes inquiétudes ont été balayées par un poteau.

Maintenant, il existe une réponse évidente : les machines peuvent surpasser les humains dans toutes les dimensions pertinentes de l’intelligence. Dans ce cas, même selon les normes strictes de Kelly, le robot serait plus intelligent qu'un humain. Mais cette hypothèse plutôt forte n’est pas nécessaire pour réfuter l’argument de Kelly.

Prenons l'exemple des chimpanzés. Les chimpanzés pourraient avoir une meilleure mémoire à court terme que les humains, même dans les tâches dans lesquelles les humains excellent, comme le rappel de séquences de nombres. La mémoire à court terme est une dimension importante de l'intelligence. Selon l’argument de Kelly, les humains ne sont pas plus intelligents que les chimpanzés ; en fait, il dirait que « plus intelligents que les chimpanzés » est un concept dénué de sens.

C'est une maigre consolation pour les chimpanzés et autres espèces qui ne survivent que grâce à la tolérance humaine, et pour toutes les espèces que les humains ont détruites. Encore une fois, cela n’est guère rassurant pour quiconque pourrait craindre d’être anéanti par les machines.

Certaines personnes pensent que la super intelligence est irréalisable, donc le risque de super intelligence n'existe plus. Ces affirmations ne sont pas nouvelles, mais il est surprenant que les chercheurs en IA eux-mêmes affirment désormais qu’une telle intelligence artificielle est impossible. Par exemple, l'important rapport « Intelligence artificielle et vie en 2030 » de l'organisation AI100 déclare : « Contrairement aux scènes de films, les robots surhumains n'apparaîtront pas et ne pourront pas apparaître dans la réalité dans le futur

. »

Pour autant que je sache, c'est la première fois qu'un chercheur sérieux en intelligence artificielle déclare publiquement que l'intelligence artificielle de niveau humain ou surhumain est impossible, et cela se produit à une époque de développement rapide de la recherche sur l'intelligence artificielle, au cours de laquelle un obstacle après qu'un autre ait été surmonté. Ce serait comme si un groupe d’éminents biologistes du cancer annonçaient qu’ils nous trompaient depuis le début : ils savaient depuis le début qu’il n’y aurait jamais de remède contre le cancer.

Qu’est-ce qui a motivé ce changement majeur ? Aucun argument ni preuve n'a été fourni dans le rapport. (En effet, quelle preuve existe-t-il qu’il est physiquement impossible d’avoir un meilleur arrangement d’atomes que le cerveau humain ?) Je pense que la raison principale est le tribalisme – une défense contre ce qui pourrait être une « attaque » contre l’intelligence artificielle. Cependant, considérer une IA super intelligente comme quelque chose qui pourrait constituer une attaque contre l’IA semble un peu étrange, et défendre une IA en affirmant qu’elle n’atteindra jamais ses objectifs semble encore plus absurde. Nous ne pouvons pas garantir que de futures catastrophes ne se produiront pas en pariant sur les limites de la créativité humaine.

À proprement parler, l’intelligence artificielle surhumaine n’est pas impossible, alors ne faut-il pas s’inquiéter prématurément de ses risques ? L'informaticien Andrew Ng estime que cela revient à s'inquiéter de la "surpopulation sur Mars". Les risques à long terme restent néanmoins préoccupants. Le moment où il faut s’inquiéter d’un problème potentiellement grave impliquant des humains dépend non seulement du moment où le problème survient, mais également du temps nécessaire pour préparer et mettre en œuvre une solution.

Par exemple, pour détecter un astéroïde qui doit entrer en collision avec la Terre en 2069, attendrait-il 2068 pour commencer à travailler sur une solution ? Bien sûr que non! L’humanité mettra en place des projets d’urgence mondiaux pour trouver des moyens de faire face aux menaces, car nous n’avons aucun moyen de savoir à l’avance combien de temps nous aurons besoin.

Le point de vue de Ng Enda donne également le sentiment qu’il nous est impossible de transférer des milliards de personnes sur Mars. Cette analogie est fausse. Nous investissons d’énormes quantités de ressources scientifiques et technologiques dans la création de systèmes d’IA plus puissants, sans nous soucier de ce qui se passera si nous réussissons. Nous pouvons faire une analogie plus appropriée : planifier le déplacement d’humains vers Mars sans tenir compte des problèmes respiratoires et alimentaires après l’arrivée. Certains pourraient penser que ce plan n’est pas judicieux.

Une autre façon d’éviter les problèmes potentiels est d’affirmer que les inquiétudes concernant le risque proviennent de l’ignorance. Par exemple, Oren Etzioni, PDG de l'Institut Allen pour l'intelligence artificielle, a accusé Elon Musk et Stephen Hawking d'être des luddites qui ont attiré l'attention sur les menaces potentielles de l'IA et ceux qui résistent à l'impulsion aveugle de la nouveauté :

Every. l’innovation technologique émergente fait peur aux gens. Depuis les tisserands qui jetaient des chaussures dans les métiers à tisser à l’aube de l’ère industrielle jusqu’à la peur actuelle des robots tueurs, nous nous demandons quel impact les nouvelles technologies auront sur notre estime de nous-mêmes et sur nos moyens de subsistance. Quand on ne sait rien, on panique.

Même si vous prenez cet argument fallacieux classique au pied de la lettre, il ne tient pas la route. Hawking n’est pas étranger au raisonnement scientifique et Musk a supervisé et investi dans plusieurs projets de recherche sur l’intelligence artificielle. Il est encore plus incompétent de penser que Bill Gates, I.J. Good, Marvin Minsky, Alan Turing et Norbert Wiener, qui ont exprimé leurs inquiétudes, ne sont plus qualifiés pour discuter de l'intelligence artificielle.

Il est également complètement faux d'accuser le luddisme. C'est comme si quelqu'un accusait les ingénieurs nucléaires d'être des Luddites lorsqu'ils soulignent la nécessité de contrôler les réactions de fission. Autrement dit, évoquer les risques de l’IA revient à nier ses avantages potentiels. Prenons l'exemple d'Oren Etzioni :

Les prévisions pessimistes ne prennent souvent pas en compte les avantages potentiels de l'intelligence artificielle dans la prévention des accidents médicaux et la réduction des accidents de voiture.

Récemment, le PDG de Facebook, Mark Zuckerberg, a eu un échange médiatique avec Elon Musk :

S'opposer à l'intelligence artificielle, c'est s'opposer à des voitures plus sûres qui ne provoqueront pas d'accidents, et s'opposer à un diagnostic plus précis de l'état des patients.

L’idée selon laquelle quiconque évoque des risques est « anti-IA » est bizarre. (Les ingénieurs en sûreté nucléaire sont-ils « contre l’électricité » ?) Qui plus est, tout l’argument est précisément à contre-courant, pour deux raisons. Premièrement, s’il n’y avait aucun avantage potentiel, il n’y aurait aucune incitation à la recherche sur l’IA et aux dangers que représente l’IA à l’échelle humaine, et nous n’en discuterions pas. Deuxièmement, si le risque ne peut être atténué avec succès, il n’y aura aucun avantage.

Les événements catastrophiques de Three Mile Island en 1979, de Tchernobyl en 1986 et de Fukushima au Japon en 2011 ont considérablement réduit les bénéfices potentiels de l'énergie nucléaire. Ces catastrophes nucléaires ont sévèrement limité le développement de l'industrie nucléaire. L'Italie a renoncé à l'énergie nucléaire en 1990, et la Belgique, l'Allemagne, l'Espagne et la Suisse ont déjà annoncé qu'elles abandonnaient leurs projets en matière d'énergie nucléaire. De 1991 à 2010, la nouvelle capacité nucléaire nette ajoutée chaque année représentait environ 1/10 de ce qu’elle était dans les années précédant l’accident de Tchernobyl.

Étrangement, avec ces événements comme avertissement, le célèbre scientifique cognitif Steven Pinker estime toujours que les gens ne devraient pas attirer l'attention sur les risques de l'intelligence artificielle car la « culture de sécurité des sociétés avancées » garantira qu'ils soient éliminés. Tous les risques importants de l'IA. Même en ignorant Tchernobyl, Fukushima et le réchauffement climatique incontrôlable provoqué par notre culture avancée de sécurité, l’argument de Pinker passe complètement à côté de l’essentiel. Une culture de sécurité fonctionnelle implique de signaler les modes de défaillance potentiels et de trouver des moyens de les prévenir, et le modèle standard d'IA est celui des modes de défaillance.

Pinker estime également que le comportement problématique de l'IA découle de la définition de types d'objectifs spécifiques ; si ceux-ci ne sont pas pris en compte, il n'y aura aucun problème :

Les projets dystopiques d'IA projettent une mentalité machiste étroite sur le concept d'intelligence. Ils croient que les robots dotés d’une intelligence surhumaine auront des objectifs tels que renverser leurs maîtres ou conquérir le monde.

Yann LeCun, pionnier du deep learning et responsable de la recherche sur l'intelligence artificielle chez Facebook, cite souvent le même point de vue en minimisant les risques de l'intelligence artificielle :

Nous n'avons pas besoin de permettre à l'intelligence artificielle de se protéger. instincts, jalousie, etc... …L'IA ne créera pas d'« émotions » destructrices à moins que nous y incorporions ces émotions.

Ceux qui pensent que ce risque est négligeable n’expliquent pas pourquoi la super intelligence artificielle doit être sous contrôle humain.

En fait, peu importe que nous ayons des « émotions » ou des « désirs » intégrés (comme l’auto-préservation, l’acquisition de ressources, la découverte de connaissances ou, dans les cas extrêmes, la domination du monde). Les machines généreront ces émotions de toute façon, tout comme les sous-objectifs des objectifs pour lesquels nous les construisons, quel que soit le sexe. Comme le révèle la perspective « éteindre la machine », la fin de vie n’est pas en soi une mauvaise chose pour une machine. Néanmoins, l’interruption de la vie doit être évitée, car une fois terminée, ils auront plus de mal à atteindre leurs objectifs.

Une variante courante de l’argument « éviter de fixer des objectifs » est qu’un système suffisamment intelligent fixera inévitablement les « bons » objectifs par lui-même grâce à son intelligence. Le philosophe du XVIIIe siècle David Hume a réfuté ce point de vue dans A Treatise of Human Nature. Dans son livre "Superintelligence" (Superintelligence), Nick Bostrom considère le point de vue de Hume comme une proposition orthogonale :

L'intelligence est orthogonale au but ultime : n'importe quel niveau d'intelligence peut être plus ou moins intégré à n'importe quel objectif final.

Par exemple, la destination d'une voiture autonome peut être n'importe quel endroit désigné ; rendre la voiture plus autonome ne signifie pas qu'elle refusera automatiquement de se rendre à des adresses qui nécessitent des calculs mathématiques établis.

De même, il n'est pas difficile d'imaginer qu'un système intelligent général puisse se voir attribuer plus ou moins d'objectifs, notamment maximiser le nombre de trombones ou le nombre de chiffres dans le rapport pi connu. C'est ainsi que fonctionnent les systèmes d'apprentissage par renforcement et autres optimiseurs de récompense : l'algorithme est complètement général et peut accepter n'importe quel signal de récompense. Pour les ingénieurs et informaticiens travaillant dans le modèle standard, la proposition d’orthogonalité est simplement une évidence.

Le célèbre expert en robotique Rodney Brooks a clairement critiqué la thèse de l’orthogonalité de Bostrom. Il a affirmé qu’un programme « ne peut pas être assez intelligent pour inventer des moyens de renverser la société humaine afin d’atteindre ses objectifs sans comprendre comment cela cause des problèmes aux humains ».

Cependant, étant donné la définition du problème donnée par Bruske, une telle procédure est non seulement possible, mais en fait inévitable. Bruske estime que les meilleures pratiques des machines pour « atteindre les objectifs fixés par l’homme » causent des problèmes aux humains. On peut voir que ces problèmes reflètent la négligence des êtres humains à l'égard de ce qui leur est précieux lorsqu'ils fixent des objectifs. La meilleure solution exécutée par une machine est susceptible de causer des problèmes aux humains, et la machine en est probablement consciente, mais ce n'est évidemment pas son affaire que la machine ne considère pas ces problèmes comme problématiques.

En conclusion, les « sceptiques » qui croient que les risques posés par l’IA sont minimes n’expliquent pas pourquoi les systèmes de super IA doivent être sous contrôle humain ; ils n’essaient même pas d’expliquer pourquoi les systèmes de super IA ne seront jamais développés.

Le domaine de l'intelligence artificielle doit prendre des risques et faire de son mieux pour les réduire, plutôt que de continuer à tomber dans la confrontation et la calomnie et à déterrer à plusieurs reprises des arguments peu fiables. À notre connaissance, ces risques ne sont ni insignifiants ni insurmontables. La première étape consiste à reconnaître que le modèle standard doit être remplacé et que le système d’IA optimise un objectif fixé. C'est une mauvaise ingénierie. Nous devons faire beaucoup de travail pour remodeler et reconstruire les fondements de l’intelligence artificielle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer