Maison > Article > Périphériques technologiques > Microsoft lance Azure AI Content Safety, qui peut détecter automatiquement les contenus en ligne négatifs tels que
IT House News le 24 mai, Microsoft a lancé un produit de service de révision de contenu piloté par l'intelligence artificielle (IA) - Azure AI Content Safety (Azure AI Content Security Service), visant à réduire le contenu négatif dans les informations de l'environnement communautaire.
Ce produit fournit une série de modèles d'IA entraînés qui peuvent détecter le contenu négatif lié aux préjugés, à la haine, à la violence, etc. dans des images ou des textes, et peuvent comprendre et détecter des images ou des textes dans huit langues en tant que contenu étiqueté Des scores de gravité sont attribués pour indiquer aux évaluateurs humains quel contenu nécessite une action.
▲ Source de l'image Site officiel d'Azure
Le service de sécurité du contenu Azure AI est intégré au service Azure OpenAI et est ouvert aux développeurs tiers, prenant en charge huit langues, dont l'anglais, l'espagnol, l'allemand, le français, le chinois, le japonais, le portugais et l'italien. Le service Azure OpenAI est une offre de services axée sur les entreprises et gérée par Microsoft qui permet aux entreprises d'accéder à la technologie d'AI Lab OpenAI et à des capacités de gouvernance supplémentaires. Comparé à d’autres produits similaires, le service de sécurité du contenu Azure AI peut mieux comprendre le contenu textuel et le contexte culturel, et est plus précis lors du traitement des données et du contenu.
Microsoft a déclaré que par rapport à d'autres produits similaires, ce produit présente des améliorations significatives en termes d'impartialité et de compréhension du contexte, mais ce produit doit toujours s'appuyer sur des évaluateurs humains pour marquer les données et le contenu. Cela signifie qu’en fin de compte, son équité dépend des humains. Même lors du traitement des données et de l’examen du contenu, les évaluateurs humains peuvent avoir des préjugés personnels, de sorte que la neutralité et la prudence ne peuvent pas être pleinement assurées.
En traitant de problèmes liés à la perception visuelle par apprentissage automatique, en 2015, le logiciel de reconnaissance d’images par IA de Google a étiqueté les personnes de couleur (noires) comme des orangs-outans, ce qui a suscité une énorme controverse. Huit ans plus tard, les géants technologiques d'aujourd'hui s'inquiètent toujours du « politiquement correct » qui « répète les erreurs du passé ». Plus tôt ce mois-ci, Sam Altman, PDG d'OpenAI, a appelé le gouvernement à réglementer l'intelligence artificielle (IA) lors d'une audience du sous-comité du Sénat américain. Il a souligné le potentiel d'erreurs de cette technologie et ses graves conséquences, qui pourraient causer d'énormes dégâts à l'échelle mondiale. IT House nous rappelle que même la technologie d'intelligence artificielle la plus avancée peut être utilisée de manière malveillante ou incorrecte, il est donc crucial de réglementer et de réguler l'intelligence artificielle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!