Maison >Périphériques technologiques >IA >Yao Qizhi et des dizaines d'experts chinois et étrangers ont signé le Consensus international de Pékin sur la sécurité de l'IA : il est interdit à l'IA de se répliquer d'elle-même
Nouvelles du 18 mars, selon les rapports de Tencent Technology, des dizaines d'experts chinois et étrangers, dont Joshua Bengio, Jeffrey Hinton, Yao Qizhi, lauréats du prix Turing, etc., ont récemment tenu une conférence conjointe à Pékin. Consensus international sur la sécurité de l'IA » initié par l'Institut de recherche Zhiyuan, qui implique deux parties principales de l'intelligence artificielle « lignes rouges de risque » et « itinéraire ». Les « lignes rouges de risque » comprennent « la réplication et l'amélioration autonomes » et la « recherche de pouvoir » Quatre sections : "Assistance aux mauvais acteurs" et "Déception".
Ce site organise quatre parties du contenu à peu près comme suit :
"Réplication et amélioration autonomes" de l'intelligence artificielle : mettant l'accent sur le rôle de l'humain dans ce processus et exigeant que tout système d'intelligence artificielle, mettant une « malédiction de resserrement » sur le développement de l'IA. Le consensus souligne également que la clé pour empêcher le franchissement des lignes rouges ci-dessus réside dans les efforts conjoints de toutes les parties de l'industrie pour établir et améliorer les mécanismes de gouvernance tout en développant continuellement des technologies plus sûres. La voie de développement de l'IA comporte trois aspects : « gouvernance », « mesure et évaluation » et « coopération technique ». Plus précisément, la mise en place d'un mécanisme de gouvernance est la base pour garantir la bonne direction du développement de l'IA, la mesure et l'évaluation sont la clé pour évaluer objectivement les effets de l'application de la technologie de l'IA, et la coopération technique est une garantie importante pour toutes les parties de promouvoir conjointement le développement de l’IA. Le développement coordonné de ces aspects contribuera à garantir le développement sain de la technologie de l’IA tout en évitant les risques potentiels. Gouvernance : il est recommandé de mettre immédiatement en œuvre un enregistrement au niveau national pour les modèles d’intelligence artificielle et les comportements de formation qui dépassent des seuils spécifiques de calcul ou de capacité.
Mesure et évaluation : développer des méthodes et des technologies complètes avant que des risques substantiels ne surviennent,
rendre les lignes rouges concrètes et le travail de prévention opérationnelCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!