Maison >Périphériques technologiques >IA >Sept grandes sociétés d'IA, dont OpenAI, Google et d'autres, se sont engagées conjointement à introduire la technologie de filigrane et à permettre à des tiers d'examiner le contenu de l'IA.
Nouvelles du 21 juillet, selon Reuters, le gouvernement américain a annoncé aujourd'hui que a obtenu des engagements volontaires de la part d'un certain nombre de grandes sociétés d'intelligence artificielle pour ajouter des filigranes au contenu généré par l'intelligence artificielle et d'autres mesures visant à améliorer la sécurité technique. .
Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI Les sept sociétés ont convenu d'améliorer la sécurité et la transparence de leurs systèmes, notamment en permettant à des experts tiers d'examiner leurs modèles.
Dans une déclaration à TechRadar, le gouvernement américain a déclaré : « Les entreprises qui développent des technologies émergentes ont la responsabilité de garantir la sécurité de leurs produits. Pour réaliser tout le potentiel de l'intelligence artificielle, le gouvernement américain encourage l'industrie à adhérer à la directive. les normes les plus élevées pour garantir l'innovation "Pas au détriment des droits et de la sécurité des Américains." les acteurs de l’industrie, les gouvernements, le monde universitaire et le public pour partager des informations afin d’aider à gérer les risques liés à l’IA.
Les entreprises travailleront également sur les investissements en matière de cybersécurité et les contrôles contre les menaces internes pour « protéger les pondérations des modèles propriétaires et non publiés », qui sont essentielles au fonctionnement des modèles de données qui pilotent l’IA. Ils acceptent également de permettre à des tiers d'enquêter et de signaler toute vulnérabilité de sécurité dans le système.
Les sept entreprises ont également convenu de prendre des mesures pour accroître la confiance du public dans leurs systèmes, notamment en développant un moyen de garantir que les gens sachent quand ils voient du contenu généré par l'IA, comme des filigranes ou d'autres mesures . Les entreprises donneront également la priorité à la recherche sur les risques sociaux posés par les modèles d'IA, y compris le potentiel de discrimination raciale et d'autres formes de préjugés, ainsi qu'à la « protection de la vie privée ».
Cependant, IT House a découvert à partir de l'annonce que Ces engagements sont des mesures volontaires prises par les entreprises concernées, et qu'il n'y a aucune pénalité en cas de violation, une mise en œuvre stricte ne peut donc pas être garantie.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!