Maison  >  Article  >  Périphériques technologiques  >  L'alliance Microsoft-Google promeut activement les normes de sécurité de l'IA

L'alliance Microsoft-Google promeut activement les normes de sécurité de l'IA

PHPz
PHPzoriginal
2024-07-17 21:41:11824parcourir

Dans la soirée du 25 octobre, heure de Pékin, Microsoft, Google, les startups d'intelligence artificielle OpenAI et Anthropic accélèrent le développement de normes de sécurité en matière d'intelligence artificielle (IA) et ont nommé aujourd'hui un directeur afin de combler le vide dans les responsabilités réglementaires mondiales.

微软谷歌联盟积极推进 AI 安全标准

Frontier Model Forum nomme un directeur exécutif

Cet été, les géants de la technologie ont créé conjointement le Frontier Model Forum (Frontier Model Forum), dédié au développement sûr et responsable de modèles d'intelligence artificielle. Aujourd’hui, ils ont nommé Chris Meserole, responsable de l’intelligence artificielle à la Brookings Institution, au poste de Directeur exécutif de l’organisation.

De plus, le Frontier Model Forum a annoncé son intention d'investir 10 millions de dollars dans le AI Security Fund.

Meserole a déclaré : "Nous sommes peut-être encore loin d'une véritable réglementation. En attendant, nous voulons nous assurer que ces systèmes (règles réglementaires) sont aussi sûrs que possible

Ces dernières années, l'inquiétude est devenue croissante." L’IA, de plus en plus puissante, pourrait remplacer les emplois humains, créer et diffuser des informations erronées ou, à terme, surpasser l’intelligence humaine.

Meserole a déclaré que le forum chercherait à « compléter » toute réglementation officielle. Le projet de loi européen sur l’intelligence artificielle devrait être finalisé au début de l’année prochaine. Parallèlement, le Royaume-Uni accueillera la semaine prochaine le premier Sommet mondial sur la sécurité de l'intelligence artificielle, invitant les dirigeants et les principaux responsables du secteur technologique à discuter de la coopération dans ce domaine.

Meserole a également déclaré que le forum se concentrerait dans un premier temps sur les risques, notamment la capacité de l'intelligence artificielle à aider à concevoir des armes biologiques et la capacité à générer du code informatique qui pourrait être utilisé pour faciliter le piratage de systèmes critiques.

Déclaration publicitaire : Les liens externes mentionnés dans l'article sont à titre de référence uniquement et ne représentent pas les vues de ce site.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn