Maison > Article > Périphériques technologiques > Près de 400 grands noms ont signé une lettre ouverte mettant en garde contre les risques de l'IA, dont le fondateur d'OpenAI
Ren Xiaoning, journaliste de l'Economic Observer Network Le 30 mai, heure de l'Est, le Center for Artificial Intelligence Security (CAIS), une organisation américaine à but non lucratif, a publié une lettre ouverte commune sur son rapport officiel site Internet, affirmant que l'IA est comparable aux « pandémies et à la guerre nucléaire » pourrait présenter un risque d'extinction pour l'humanité.
La lettre ouverte ne contient qu'une seule phrase : « Atténuer le risque d'extinction posé par l'intelligence artificielle devrait devenir une priorité mondiale au même niveau que d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. »
Actuellement, plus de 370 magnats de l'IA ont signé la lettre ouverte commune mentionnée ci-dessus, y compris les dirigeants de trois grandes sociétés d'IA, dont Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google DeepMind, et Dario Amode, PDG d'Anthropic.Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing et connus comme les « parrains » de l'intelligence artificielle, ont également signé cette lettre ouverte.
Il y a également des universitaires chinois sur la liste des signataires, dont Zhang Yaqin, académicien de l'Académie chinoise d'ingénierie et doyen de l'Institut de l'industrie intelligente de l'Université Tsinghua, Zeng Yi, directeur du Centre de recherche sur l'éthique et la gouvernance de l'intelligence artificielle. de l'Institut d'automatisation de l'Académie chinoise des sciences, et Zhan Xianyuan, professeur agrégé à l'Université Tsinghua.
La liste est principalement composée de professeurs d'universités de renommée mondiale, suivis de scientifiques en intelligence artificielle, mais aussi de personnalités politiques, comme Kersti Kaljulaid, ancienne présidente de la République d'Estonie.
Le nombre de personnes sur cette liste ne cesse de croître. Les journalistes de l'Economic Observer Network ont vu sur le site officiel du CAIS que les scientifiques en intelligence artificielle ou les célébrités (cadres, professeurs, dirigeants) peuvent soumettre une déclaration signée et recevoir un e-mail de confirmation.
CAIS, une organisation à but non lucratif située à San Francisco, aux États-Unis, se concentre sur la sécurité de l'intelligence artificielle. Ils ont déclaré sur leur site officiel que tant que l’intelligence artificielle (IA) pourra être développée et appliquée en toute sécurité, elle devrait apporter de nombreux avantages à l’échelle mondiale. Malgré les énormes progrès de l’intelligence artificielle, de nombreux problèmes fondamentaux restent encore à résoudre en matière de sécurité de l’intelligence artificielle. Leur mission est de réduire les risques à l’échelle de la société associés à l’intelligence artificielle en menant des recherches sur la sécurité, en établissant le domaine de la recherche sur la sécurité de l’IA et en défendant des normes de sécurité.
En mars de cette année, des milliers de personnalités étrangères connues ont également signé une lettre ouverte mettant en garde contre les risques de l'IA. Le 29 mars, le fondateur de Tesla, Elon Musk, le lauréat du prix Turing Yoshua Bengio et d'autres ont publié une annonce conjointe sur le site Internet de l'organisation à but non lucratif Future of Life Institute, appelant à la suspension du développement d'un système d'IA plus puissant que GPT-4 pour au au moins six mois, estimant que cela "présente un risque potentiel pour la société et l'humanité".
Actuellement, OpenAI a suspendu le développement de GPT-5.
Yoshua Bengio a mentionné la raison de la signature et a déclaré que cette lettre ouverte peut rappeler au monde universitaire et à l'industrie : Nous devons prendre le temps de mieux comprendre ces systèmes et développer les cadres nécessaires aux niveaux national et international pour accroître la sensibilisation du public. . Même si l’impact de la signature de cette lettre ouverte n’est peut-être pas si significatif, elle suscitera au moins un débat dans la société.
À l'étranger, à mesure que ChatGPT est plus largement utilisé, le risque d'exposition augmente progressivement. Le 28 mars, selon le média belge LaLibre, un Belge de 30 ans s'est suicidé après des semaines de communication intensive avec le chatbot ELIZA, un modèle de langage d'intelligence artificielle open source développé par EleutherAI.
Des images montrant une explosion survenue dans la zone proche du Pentagone le 22 mai se sont rapidement répandues sur les réseaux sociaux. La diffusion généralisée de la fausse photo a fait chuter l'indice S&P 500 d'environ 0,3 % jusqu'à son plus bas intrajournalier à court terme, passant de gains à pertes. Plus tard, un porte-parole du ministère américain de la Défense a confirmé qu'il s'agissait d'une fausse image générée par l'IA. Cette image présentait des caractéristiques évidentes générées par l'IA, telles que les lampadaires un peu tordus et la clôture qui poussait sur le trottoir.
Après que les reprises d'IA soient devenues une tendance, Universal Music, qui contrôle près d'un tiers du marché mondial de la musique, a publié une lettre demandant à Apple, Spotify et d'autres plateformes de streaming d'interdire les œuvres d'IA qui portent atteinte à la mélodie et aux paroles de l'entreprise. droit d'auteur.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!