Maison > Article > Périphériques technologiques > Azure AI Content Safety : Microsoft lance un puissant outil de modération de contenu IA
10 Ce qu'il faut réécrire c'est : Mois Ce qu'il faut réécrire c'est : 18 Ce qu'il faut réécrire c'est : L'actualité quotidienne, afin de créer un environnement communautaire sain et harmonieux, Microsoft réduira les contenus négatifs liés aux préjugés, à la haine, violence, etc. en images ou en textes , Ce qui doit être réécrit cette année : 5 Ce qui doit être réécrit : Les tests mensuels sont lancés Ce qui doit être réécrit : l'IA Ce qui doit être réécrit est : Les outils de révision de contenu doivent être réécrits : Azure Ce qui doit être réécrit est : Ce qui doit être réécrit pour l'IA est : Contenu Ce qui doit être réécrit est : Sécurité Cet outil a été officiellement publié aujourd'hui après plusieurs mois de tests.
Nous l'avons mentionné ici : Azure doit être réécrit est : L'IA doit être réécrite est : la sécurité du contenu fournit un ensemble de modèles formés, elle peut détecter le contenu négatif lié aux préjugés, à la haine, à la violence, etc. ou des textes, et peut comprendre et détecter des images ou des textes en huit langues. Il peut également évaluer la gravité du contenu signalé pour indiquer aux évaluateurs humains quel contenu nécessite une action
Cet outil de modération de contenu a été initialement intégré au service Azure OpenAI, et maintenant Microsoft l'a officiellement lancé en tant que système indépendant
Microsoft a souligné dans le billet de blog officiel : « Cela signifie que les utilisateurs peuvent l'appliquer au contenu généré par l'intelligence artificielle à partir de modèles open source et d'autres modèles d'entreprise, et peuvent appeler certains contenus générés par les utilisateurs, élargissant ainsi davantage son utilité. »
Quoi doit être réécrit :
Microsoft a déclaré que même si le produit présente des améliorations significatives en termes d'impartialité et de compréhension du contexte, il doit toujours s'appuyer sur des évaluateurs humains pour signaler les données et le contenu. Cela signifie que l’impartialité ultime appartient toujours aux humains. Cependant, les évaluateurs humains peuvent avoir des préjugés personnels lors du traitement des données et du contenu, ils ne peuvent donc pas être complètement neutres et prudents. Ce qui doit être réécrit est :
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!