Maison  >  Article  >  Périphériques technologiques  >  En comparant l’IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l’IA

En comparant l’IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l’IA

PHPz
PHPzavant
2023-05-26 19:17:10846parcourir

Selon les informations du 24 mai, trois hauts dirigeants d'OpenAI ont récemment publié conjointement un document affirmant que l'IA doit être strictement réglementée et que le développement de l'IA doit être géré comme des installations nucléaires.

En comparant l’IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l’IA

(Le site officiel d'OpenAI a mis en ligne cet article)

Trois cadres supérieurs d'OpenAI estiment que l'IA super intelligente est une arme à double tranchant. Au cours des dix prochaines années, la production de l'IA rattrapera de nombreuses grandes entreprises et doit être réglementée. une agence internationale de réglementation de l’intelligence artificielle.

Ils ont également déclaré que l’intelligence artificielle innove si rapidement qu’on ne peut pas s’attendre à ce que les autorités existantes contrôlent totalement cette technologie.

En comparant l’IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l’IA

Actuellement, cet article a attiré beaucoup d'attention sur Twitter, et même Musk lui-même a commenté ci-dessous en disant "Le contrôle compte". Beaucoup de gens pensent que l'approche d'OpenAI est égoïste car elle entrave la vision que les gens ont de l'ouverture future et de l'application de l'intelligence artificielle.

En comparant l’IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l’IA

En fait, Altman, l'un des trois cadres supérieurs d'OpenAI, a avancé de nombreuses propositions sur la sécurité de l'IA lors de sa participation à l'audition du Congrès américain, notamment la création d'une nouvelle agence chargée de délivrer des licences pour les grands modèles d'IA et ayant l'autorité pour les révoquer. Le pouvoir d'autorisation ; créer un ensemble de normes de sécurité pour les modèles d'IA et évaluer les risques, y compris s'ils peuvent « s'auto-répliquer » et « s'échapper du laboratoire et agir de leur propre chef » ; audits indépendants de divers indicateurs du modèle. Cette fois, ils ont une fois de plus attiré l’attention du public sur cette question à travers leur identité visuelle.

Tout le monde devrait connaître la série de films "Terminator". Bien que l’intelligence artificielle « Skynet » ait causé d’importantes destructions mondiales dans le film, nous ne pouvons pas sous-estimer l’intelligence artificielle simplement parce qu’il s’agit d’un film de fiction. L'avenir est là, et maintenant que les modèles d'IA tels que ChatGPT et Midjourney ont montré des capacités aussi puissantes, il est peut-être temps de commencer à prêter attention à l'orientation future du développement de cette technologie.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer