Maison >Périphériques technologiques >IA >L'IA pourrait exterminer l'humanité ! Les plus grands magnats appellent ensemble à faire de la réduction des risques liés à l'IA une priorité mondiale

L'IA pourrait exterminer l'humanité ! Les plus grands magnats appellent ensemble à faire de la réduction des risques liés à l'IA une priorité mondiale

WBOY
WBOYavant
2023-06-02 18:37:04674parcourir

Mardi 30 mai, heure locale, l'organisation à but non lucratif « Center for AI Safety » a publié une déclaration appelant à réduire le risque d'extinction causé par l'intelligence artificielle (IA) aux humains.

Cette brève déclaration de seulement 4 lignes indique que Réduire le risque d'extinction que l'IA peut entraîner devrait devenir une priorité mondiale, au même titre que les épidémies et la guerre nucléaire.

LIA pourrait exterminer lhumanité ! Les plus grands magnats appellent ensemble à faire de la réduction des risques liés à lIA une priorité mondiale

↑Cette courte déclaration ne fait que 4 lignes

Il est rapporté que des centaines de personnes dans l'industrie de l'IA, dont le PDG d'OpenAI Sam Altman, le « Parrain de l'IA » Geoffrey Hinton, le directeur de la technologie de Microsoft Kevin Scott, etc. La déclaration a été signée par des personnalités, des universitaires et des personnalités éminentes du d'autres domaines comme le climat.

Les médias disent que même si les experts en IA estiment que la génération actuelle de chatbots génératifs d'IA appartient toujours au modèle "copier-coller" après avoir reçu une formation sur les données et ne réfléchit pas, mais compte tenu du grand battage médiatique et des investissements dans l'IA Dans l'industrie, il y a des appels à une réglementation de l'ère de l'IA dès le début. David Krueger, professeur qui étudie l'IA à l'Université de Cambridge, a déclaré que depuis plus de 10 ans, il craignait que l'IA puisse conduire à l'extinction de l'humanité, et qu'il est désormais très heureux que tout le monde puisse proposer cette initiative.

Selon certaines informations, cette déclaration a été publiée à un moment où le chatbot génératif ChatGPT d'OpenAI est devenu « populaire » et a encouragé l'industrie technologique à lancer la concurrence dans le domaine de l'IA. Dans ces circonstances, De plus en plus de législateurs, de professionnels de la technologie, etc. mettent en garde contre la possibilité qu'une nouvelle génération de chatbots IA propage de la désinformation et remplace certaines professions.

Dan Hendrycks, directeur du "Artificial Intelligence Safety Center", a déclaré sur sa plateforme sociale que l'IA comporte de nombreux risques, tels que la transmission d'informations erronées et l'apparition de biais. Il a également lié la situation actuelle dans le domaine de l’IA aux avertissements émis par les scientifiques qui ont développé la bombe atomique après son développement réussi. « Comme l’a dit Robert Oppenheimer [le père de la bombe atomique], notre monde n’est plus le même », a-t-il écrit.

LIA pourrait exterminer lhumanité ! Les plus grands magnats appellent ensemble à faire de la réduction des risques liés à lIA une priorité mondiale

↑Dan rappelle aux gens que l'IA comporte de nombreux risques

En fait, ce n’est pas la première fois que l’industrie propose une initiative conjointe en raison de préoccupations concernant l’IA. Selon des rapports précédents, le fondateur de Tesla, Musk, et le co-fondateur d'Apple, Wozniak, ont également mis en garde dans une lettre ouverte appelant l'humanité à suspendre le développement d'une intelligence artificielle plus puissante pendant au moins six mois. Jeffrey, connu comme le « Parrain de l'IA », a démissionné de Google, où il a travaillé pendant de nombreuses années, et a commencé à parler ouvertement des risques posés par l'IA.

Red Star News a précédemment rapporté :

Li Jinrui, journaliste de Red Star News

Rédacteur en chef Ren Zhijiang Rédacteur Guo Zhuang

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer