Maison >Périphériques technologiques >IA >L'intelligence artificielle mènera-t-elle à la disparition de l'humanité ? Les experts se disent plus préoccupés par la désinformation et la manipulation des utilisateurs

L'intelligence artificielle mènera-t-elle à la disparition de l'humanité ? Les experts se disent plus préoccupés par la désinformation et la manipulation des utilisateurs

王林
王林avant
2023-06-04 22:40:011611parcourir

Lintelligence artificielle mènera-t-elle à la disparition de lhumanité ? Les experts se disent plus préoccupés par la désinformation et la manipulation des utilisateurs

Nouvelles du 4 juin, avec le développement et la vulgarisation rapides de la technologie de l'intelligence artificielle, de nombreux acteurs de l'industrie craignent qu'une intelligence artificielle sans restriction ne conduise à la disparition de l'humanité. . Cependant, les experts affirment que l’impact négatif le plus important de l’intelligence artificielle ne sera probablement pas les scènes de guerre nucléaire dans les films de science-fiction, mais plutôt la détérioration de l’environnement social causée par de fausses informations et la manipulation des utilisateurs.

Voici la traduction :

Ces derniers mois, l'industrie s'inquiète de plus en plus de l'intelligence artificielle. Cette semaine encore, plus de 300 dirigeants de l'industrie ont publié une lettre ouverte commune avertissant que l'intelligence artificielle pourrait conduire à l'extinction de l'humanité et que l'intelligence artificielle devrait être traitée aussi sérieusement que « les épidémies et les guerres nucléaires ».

Des termes comme « apocalypse de l'intelligence artificielle » évoqueront toujours les images de robots dirigeant le monde dans les films de science-fiction, mais quelles sont les conséquences de l'intelligence artificielle qu'on laisse se développer ? Les experts disent que la réalité n'est peut-être pas aussi changeante que l'intrigue du film. Il ne s'agira pas d'une intelligence artificielle qui lancera une bombe nucléaire, mais d'une détérioration progressive de l'environnement social de base.

Jessica Newman, directrice de l'Initiative pour la sécurité de l'intelligence artificielle à l'Université de Californie à Berkeley, a déclaré : « Je ne pense pas que les gens devraient s'inquiéter de la détérioration de l'IA ou d'un désir malveillant. Cela vient de quelque chose de plus simple, à savoir que les gens pourraient programmer l'IA pour qu'elle fasse des choses nuisibles, ou que nous finissons par intégrer des systèmes d'IA intrinsèquement inexacts dans de plus en plus de domaines de la société", a-t-il déclaré. Et causant ainsi du tort. "

# 🎜🎜#Cela ne veut pas dire que nous ne devrions pas nous soucier de l'intelligence artificielle. Même si des scénarios apocalyptiques sont peu probables, une IA puissante a la capacité de déstabiliser la société en exacerbant les problèmes de désinformation, en manipulant les utilisateurs humains et en provoquant des changements spectaculaires sur les marchés du travail.

Alors que la technologie de l'intelligence artificielle existe depuis des décennies, la popularité des modèles d'apprentissage des langues comme ChatGPT a exacerbé des préoccupations de longue date. Pendant ce temps, les entreprises technologiques s'efforcent d'intégrer l'intelligence artificielle dans leurs produits, se faisant concurrence et créant de nombreux maux de tête, a déclaré Newman.

"Je suis très inquiète du chemin que nous suivons actuellement", a-t-elle déclaré. "Nous vivons une période particulièrement dangereuse pour le domaine de l'intelligence artificielle dans son ensemble, à cause de ces systèmes. Même s’ils semblent spéciaux, ils restent très inexacts et intrinsèquement défectueux. » Les experts interrogés ont déclaré qu’ils étaient plus préoccupés par un certain nombre d’aspects.

Erreur et désinformation

De nombreux domaines ont déjà déclenché la révolution dite de l'intelligence artificielle. La technologie d’apprentissage automatique, qui sous-tend les algorithmes des flux d’actualités des réseaux sociaux, a longtemps été accusée d’exacerber des problèmes tels que les préjugés inhérents et la désinformation.

Les experts préviennent que ces problèmes non résolus ne feront qu'être exacerbés à mesure que les modèles d'intelligence artificielle se développeront. Le pire des cas peut affecter la compréhension qu'ont les gens de la vérité et des informations valables, conduisant à davantage d'incidents fondés sur des mensonges. Les experts affirment qu’une augmentation de la désinformation et de la désinformation pourrait déclencher de nouveaux troubles sociaux.

"On pourrait affirmer que la débâcle des médias sociaux était la première fois que nous rencontrions une IA vraiment stupide. Parce que les systèmes de recommandation n'étaient en réalité que de simples modèles d'apprentissage automatique", a déclaré le PDG de la plateforme de science des données Anaconda. fondateur Peter Wang. "Nous avons vraiment échoué." Peter Wang a ajouté que ces erreurs pourraient conduire à un cercle vicieux sans fin, car les modèles d'apprentissage des langues sont également formés sur des informations incorrectes. Cela peut conduire à un effet de « cannibalisme des modèles », dans lequel les modèles futurs sont affectés en permanence par des biais amplifiés par les résultats des modèles passés.

Les experts affirment que la désinformation inexacte et la désinformation qui induit facilement les gens en erreur sont amplifiées par l'intelligence artificielle. Les grands modèles de langage comme ChatGPT sont sujets au phénomène dit d'« hallucination », dans lequel ils fabriquent et fabriquent de fausses informations à plusieurs reprises. Une étude menée par NewsGuard, organisme de surveillance de l'industrie de l'information, a révélé que bon nombre des dizaines de sites « d'information » en ligne dont le contenu est entièrement rédigé par l'intelligence artificielle contiennent des inexactitudes.

Les co-PDG de NewsGuard, Gordon Crovitz et Steven Brill, ont déclaré que le système pourrait être exploité par de mauvais acteurs à une échelle délibérée pour propager de la désinformation.

Cravitz a déclaré : « Certains acteurs malveillants peuvent créer de fausses déclarations et ensuite utiliser l'effet multiplicateur de ce système pour diffuser de la désinformation à grande échelle. » « Certaines personnes disent que les dangers de l'intelligence artificielle ont été exagérés, mais dans le domaine de l'information. » "En termes de préjudice potentiel à plus grande échelle, la désinformation est l'impact le plus probable de l'IA", a déclaré Rebecca Finlay du Partenariat mondial à but non lucratif sur l'IA. Le risque de préjudice personnel est également le plus élevé. "La question est de savoir comment faire. "Comment pouvons-nous vérifier ce que nous voyons en ligne ?" la mesure dans laquelle cette technologie peut avoir un impact négatif sur les pensées ou les comportements des utilisateurs.

En fait, ces inquiétudes ont provoqué de nombreuses tragédies. En Belgique, un homme se serait suicidé après avoir été encouragé à le faire par un chatbot. Il existe également des chatbots qui disent à un utilisateur de rompre avec son partenaire, ou demandent à un utilisateur souffrant d'un trouble alimentaire de perdre du poids.

Newman a déclaré que, de par leur conception, étant donné que les chatbots communiquent avec les utilisateurs dans un format conversationnel, il peut y avoir plus de confiance.

« Les grands modèles de langage sont particulièrement capables de persuader ou de manipuler les gens pour qu'ils changent subtilement leurs croyances ou leurs comportements », a-t-elle déclaré. "La solitude et la santé mentale sont déjà d'énormes problèmes dans le monde, et nous devons voir quel impact cognitif les chatbots auront sur le monde."

Les experts s'inquiètent donc davantage du fait que les chatbots IA gagnent en sensibilité et dépassent les utilisateurs humains, mais plutôt les grands utilisateurs. Les modèles de langage qui les sous-tendent peuvent manipuler les gens pour qu'ils se fassent du mal qu'ils ne se feraient pas autrement. Cela est particulièrement vrai pour les modèles linguistiques qui fonctionnent sur un modèle de revenus publicitaires, a déclaré Newman, essayant de manipuler le comportement des utilisateurs afin qu'ils restent sur la plate-forme le plus longtemps possible.

Newman a déclaré : "Dans de nombreux cas, le préjudice causé aux utilisateurs n'est pas dû au fait qu'ils le souhaitent, mais aux conséquences du non-respect par le système des protocoles de sécurité."

Newman a ajouté que la nature humaine des chatbots en fait. Les utilisateurs sont particulièrement sensibles aux manipulations.

Elle a déclaré : « Si vous parlez à une chose qui utilise des pronoms à la première personne et parle de ses propres sentiments et situations, même si vous savez que ce n'est pas réel, cela est encore plus susceptible de déclencher une réaction qui ressemble à un Les gens sont plus susceptibles de vouloir lui faire confiance. "Les modèles linguistiques incitent les gens à lui faire confiance et à le traiter comme un ami, pas comme un outil." un grand nombre d'emplois humains. Certaines études concluent que l’IA remplacera 85 millions d’emplois dans le monde d’ici 2025 et plus de 300 millions d’emplois dans le futur.

Il existe de nombreux secteurs et postes concernés par l'intelligence artificielle, notamment les scénaristes et les data scientists. Aujourd’hui, l’IA peut réussir l’examen du barreau comme un vrai avocat et peut mieux répondre aux questions de santé qu’un vrai médecin.

Les experts ont averti que la montée de l’intelligence artificielle pourrait conduire à un chômage de masse et à une instabilité sociale.

Peter Wang prévient que des licenciements massifs auront lieu dans un avenir proche, avec « de nombreux emplois en danger » et qu'il existe peu de plans pour faire face aux conséquences.

"Aux États-Unis, il n'existe aucun cadre sur la manière dont les gens vont survivre lorsqu'ils perdent leur emploi", a-t-il déclaré. "Cela va conduire à beaucoup de chaos et de troubles. Pour moi, c'est le plus tangible," conséquence involontaire réelle de cela. Les experts craignent qu’il en soit de même pour l’intelligence artificielle.

Peter Wang a déclaré : « L'une des raisons pour lesquelles beaucoup d'entre nous s'inquiètent du développement de l'intelligence artificielle est qu'au cours des 40 dernières années, les États-Unis en tant que société ont fondamentalement renoncé à réglementer la technologie.

Malgré cela, Ces dernières années, le Congrès américain a pris des mesures proactives au cours des derniers mois, en organisant des auditions pour que le PDG d'OpenAI, Sam Altman, témoigne sur les mesures réglementaires qui devraient être mises en œuvre. Finlay a déclaré qu'elle était "encouragée" par ces mesures, mais qu'il restait encore du travail à faire sur le développement de spécifications techniques pour l'intelligence artificielle et sur la manière dont elles seraient publiées.

« Il est difficile de prédire comment les autorités législatives et réglementaires réagiront », a-t-elle déclaré. « Nous avons besoin que ce niveau de technologie soit soumis à un examen rigoureux

.

Bien que les dangers de l'intelligence artificielle soient la principale préoccupation de la plupart des acteurs du secteur, tous les experts ne sont pas des « pessimistes ». Beaucoup sont également enthousiasmés par les applications potentielles de cette technologie.

Peter Wang a déclaré : « En fait, je pense que la nouvelle génération de technologie d'intelligence artificielle peut vraiment libérer un énorme potentiel pour l'humanité, permettant à la société humaine de prospérer à une plus grande échelle qu'au cours des 100 dernières années, voire même Niveau 200 ans. « En fait, je suis très, très optimiste quant à son impact positif. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer