Maison  >  Article  >  Périphériques technologiques  >  La révision du contenu de l'IA qui comprend huit langues et comprend le contexte est là ! Microsoft lance un nouveau produit : peut détecter du texte et des images

La révision du contenu de l'IA qui comprend huit langues et comprend le contexte est là ! Microsoft lance un nouveau produit : peut détecter du texte et des images

王林
王林avant
2023-05-29 11:06:09649parcourir

Le 23 mai, heure locale, Microsoft a lancé un produit de service de révision de contenu piloté par l'intelligence artificielle (IA) - Azure AI Content Safety (service de sécurité de contenu Azure AI), visant à créer un environnement réseau plus sûr. Ce produit fournit une série de modèles d'IA entraînés qui peuvent détecter le contenu négatif lié aux préjugés, à la haine, à la violence, etc. dans les images ou le texte.

Les rapports indiquent que ce produit sera intégré au service Azure OpenAI et ouvert aux développeurs tiers. Il est entendu que le service Azure OpenAI est un produit de service centré sur l'entreprise et géré par Microsoft, conçu pour permettre aux entreprises d'accéder à la technologie du laboratoire d'IA OpenAI et d'ajouter des fonctions de gouvernance. Il convient de mentionner que le service de sécurité du contenu Azure AI n'est pas seulement utilisé dans le service Azure OpenAI, mais peut également être appliqué à des plateformes non IA telles que les plateformes de jeux et les communautés en ligne.

La révision du contenu de lIA qui comprend huit langues et comprend le contexte est là ! Microsoft lance un nouveau produit : peut détecter du texte et des images

↑Tableau d'information

Il est rapporté que le service de sécurité de contenu Azure AI est « compétent » dans huit langues, dont l'anglais, l'espagnol, l'allemand, le français, le chinois, le japonais, le portugais et l'italien. Autrement dit, il peut comprendre et détecter des images ou du texte dans ces huit langues, et attribuer un score de gravité au contenu signalé, indiquant ainsi aux examinateurs humains quel contenu nécessite une action.

De plus, selon un porte-parole de Microsoft, ce produit peut mieux comprendre le contenu textuel et le contexte culturel par rapport aux produits précédents du même type. « Les produits précédents du même type n'étaient pas en mesure de capturer le contenu contextuel et pouvaient provoquer des erreurs de marquage du contenu. » Le porte-parole a ajouté : « Nous disposons d'une équipe d'experts en langage et en équité qui s'engagent à élaborer des lignes directrices qui tiennent compte de la culture, de la langue et du contexte. Le rapport souligne également que Microsoft reconnaît que l'IA actuelle n'est pas parfaite et espère le faire. . Les humains améliorent l'IA à mesure qu'ils l'utilisent

.

Le rapport souligne que, comme les problèmes rencontrés par tous les programmes d'évaluation de l'IA, le service de sécurité du contenu Azure AI s'appuie en fin de compte sur des évaluateurs humains pour marquer les données et le contenu, ce qui signifie que son équité dépend en fin de compte des humains. Les biais dans le traitement manuel des données et du contenu peuvent causer des maux de tête, selon les rapports. Il y a eu une controverse en 2015 lorsque des rapports ont révélé que le logiciel de reconnaissance d'images par intelligence artificielle de Google avait étiqueté par erreur les personnes de couleur comme des orangs-outans. Les médias américains ont déclaré que huit ans plus tard, les géants de la technologie d’aujourd’hui craignent toujours de « refaire les mêmes erreurs ».

En fait, la manière de gérer les risques posés par l'IA a toujours été un sujet brûlant parmi le public et le cercle technologique. Le 22 de ce mois, une fausse image d'une "explosion près du Pentagone", vraisemblablement synthétisée par l'IA, a circulé sur Internet, provoquant un moment de panique. Un porte-parole du ministère américain de la Défense a réfuté la rumeur. Par la suite, l’analyse des médias américains a déclaré que l’image présentait toutes les caractéristiques générées par l’IA. Plus tôt ce mois-ci, Sam Altman, PDG d'OpenAI, a appelé le gouvernement à réglementer l'intelligence artificielle (IA) lors d'une audience du sous-comité du Sénat américain. Il a souligné que s'il y avait une erreur dans cette technologie, les conséquences seraient très graves et pourraient causer d'énormes dommages au monde.

Li Jinrui, journaliste de Red Star News

Rédacteur He Xianfeng Rédacteur Li Binbin

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer