Maison > Article > Périphériques technologiques > Médias américains : l’intelligence artificielle est aussi dangereuse que les épidémies et la guerre nucléaire
Reference News Network a rapporté le 31 maiLe site du magazine américain Fortune a publié le 30 mai le titre "Sam Altman et d'autres experts en technologie préviennent que l'intelligence artificielle constitue "Le risque d'extinction est aussi dangereux comme une épidémie ou une guerre nucléaire." Le texte intégral est extrait comme suit :
Des technologues et des experts en informatique ont averti que l'intelligence artificielle constitue une menace existentielle pour l'humanité, au même titre qu'une guerre nucléaire et une pandémie mondiale, et même les chefs d'entreprise qui ont mené la lutte pour l'intelligence artificielle ont exprimé leur inquiétude quant à la menace que représente cette technologie. avertissement pour l’existence humaine.
Le Center for Artificial Intelligence Security, un organisme de recherche à but non lucratif, a publié le 30 une « Déclaration sur les risques de l'intelligence artificielle ». Plus de 300 personnes ont signé la déclaration, Sam O, PDG d'Open Artificial Intelligence. Le Centre de recherche Altman en fait partie. La lettre est brève, mais elle souligne les risques de l’intelligence artificielle. La lettre disait : « Réduire le risque que l’intelligence artificielle extermine la race humaine et réduire d’autres risques affectant la société dans son ensemble, tels que les épidémies et la guerre nucléaire, devraient être une priorité mondiale. »
Le début de la lettre indique que le but de la déclaration est d'entamer des discussions pour se préparer aux potentielles capacités apocalyptiques de la technologie de l'intelligence artificielle. Joshua Benjo et l'ancien ingénieur de Google Jeffrey Hinton faisaient partie des autres signataires qui se sont joints à l'effort. En raison de leurs contributions à l’informatique moderne, ces deux hommes sont connus comme les parrains de l’intelligence artificielle. Benjo et Hinton ont mis en garde à plusieurs reprises ces dernières semaines contre les capacités dangereuses que la technologie de l’intelligence artificielle pourrait développer dans un avenir proche. Hinton a récemment quitté Google pour pouvoir discuter plus ouvertement des risques de l'intelligence artificielle.Ce n'est pas la première lettre appelant à une attention accrue sur les conséquences désastreuses que pourraient avoir les recherches avancées sur l'intelligence artificielle sans une réglementation gouvernementale plus stricte. En mars, Elon Musk faisait partie du millier d’experts en technologie qui ont appelé à un moratoire de six mois sur la recherche sur l’intelligence artificielle avancée, citant le potentiel perturbateur de cette technologie.
Altman a averti le Congrès ce mois-ci qu'à mesure que la technologie progresse si rapidement, la réglementation ne peut plus suivre.
La dernière déclaration d’Altman, contrairement à sa lettre précédente, n’énonçait aucun objectif spécifique et appelait seulement à une discussion. Hinton a déclaré à CNN plus tôt ce mois-ci qu'il n'avait pas signé la lettre de mars.
Alors que les dirigeants des principales institutions de recherche sur l'IA, notamment l'Open Artificial Intelligence Research Center et même Google, appellent les gouvernements à agir rapidement en matière de réglementation de l'IA, certains experts avertissent que certains problèmes actuels, notamment Il est contre-productif de discuter des risques futurs. de cette technologie qui menace la survie de l'humanité alors que la désinformation et d'éventuels préjugés font déjà des ravages. Certains pensent même qu’en discutant publiquement des risques de l’intelligence artificielle, des PDG comme Altman ont en réalité tenté de détourner l’attention des problèmes existants liés à cette technologie.
Mais ceux qui prédisent que l’intelligence artificielle entraînera la fin du monde préviennent également que la technologie se développe si rapidement que les risques pourraient rapidement devenir un problème échappant au contrôle humain. La capacité croissante de la super intelligence artificielle à penser et à raisonner par elle-même inquiète de plus en plus de gens, plus rapidement que prévu. Certains experts préviennent que cette technologie n’est actuellement pas dans l’intérêt et le bien-être de l’humanité.
Hinton a déclaré ce mois-ci au Washington Post que l'intelligence super-artificielle se développe rapidement et ne sera peut-être que d'ici 20 ans, et qu'il est maintenant temps d'avoir une conversation sur les risques de l'intelligence artificielle avancée.
Il a dit : "Ce n'est pas de la science-fiction." (Compilateur/Tu Qi)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!