Maison > Article > Périphériques technologiques > Comment détecter les contenus inappropriés à l'ère des grands mannequins ? Un projet de loi de l'UE oblige les sociétés d'IA à garantir le droit des utilisateurs à l'information
Au cours des 10 dernières années, les grandes entreprises technologiques sont devenues très compétentes dans de nombreuses technologies : langage, prédiction, personnalisation, archivage, analyse de texte et traitement de données. Mais ils n’arrivent toujours pas à détecter, signaler et supprimer les contenus nuisibles. Quant aux théories du complot électorale et vaccinale qui se propagent aux États-Unis, il suffit de revenir sur les événements des deux dernières années pour comprendre les dommages réels qu’elles causent.
Cette différence soulève quelques questions. Pourquoi les entreprises technologiques n’améliorent-elles pas la modération du contenu ? Peuvent-ils être forcés à faire cela ? Les nouvelles avancées en matière d’intelligence artificielle amélioreront-elles notre capacité à détecter les mauvaises informations ?
Le plus souvent, lorsque le Congrès américain demande aux entreprises technologiques de rendre compte de la propagation de la haine et de la désinformation, elles ont tendance à attribuer leurs échecs à la complexité du langage lui-même. Les dirigeants affirment que comprendre et prévenir les discours de haine contextuels dans différentes langues et contextes est une tâche difficile.
L’une des paroles préférées de Mark Zuckerberg est que les entreprises technologiques ne devraient pas être responsables de la résolution de tous les problèmes politiques du monde.
(Source : STEPHANIE ARNETT/MITTR | GETTY IMAGES)
La plupart des entreprises font actuellement appel à la fois à des modérateurs technologiques et à des modérateurs de contenu humains, le travail de ces derniers étant sous-évalué et cela se reflète dans leur maigre salaire.
Par exemple, l'IA est actuellement responsable de 97 % de tous les contenus supprimés sur Facebook.
Cependant, Renee DiResta, responsable de recherche à l'Observatoire Internet de Stanford, a déclaré que l'IA n'est pas douée pour interpréter les nuances et le contexte, il est donc peu probable qu'elle remplace complètement les modérateurs de contenu humains, et même les humains ne sont pas toujours doués pour expliquer ces choses. .
Étant donné que les systèmes automatisés de modération de contenu sont généralement formés sur des données en anglais, le contexte culturel et la langue posent également des défis, ce qui rend difficile la gestion efficace du contenu dans d'autres langues.
Le professeur Hani Farid de la School of Information de l'Université de Californie à Berkeley fournit une explication plus évidente. Selon Farid, la modération des contenus n’étant pas dans l’intérêt financier des entreprises technologiques, elle ne permet pas de faire face aux risques. Tout est question de cupidité. Arrêtez de prétendre que ce n’est pas une question d’argent. »
En raison de l'absence de réglementation fédérale, il est difficile pour les victimes de violence en ligne d'exiger une responsabilité financière des plateformes.
La modération du contenu semble être une guerre sans fin entre les entreprises technologiques et les mauvais acteurs. Lorsque les entreprises technologiques mettent en place des règles de modération de contenu, les mauvais acteurs utilisent souvent des émojis ou des fautes d’orthographe intentionnelles pour éviter d’être détectés. Ensuite, ces entreprises tentent de combler les failles, et les gens trouvent de nouvelles failles, et le cycle continue.
Maintenant, voici le grand modèle de langage...
La situation actuelle est déjà très difficile. Avec l’émergence de l’intelligence artificielle générative et des modèles linguistiques à grande échelle tels que ChatGPT, la situation pourrait devenir encore pire. La technologie générative a ses problèmes – par exemple, sa tendance à inventer des choses avec assurance et à les présenter comme des faits – mais une chose est claire : l’IA s’améliore en langage.
Bien que DiResta et Farid soient prudents, ils estiment qu'il est trop tôt pour porter un jugement sur l'évolution des choses. Bien que de nombreux grands modèles comme GPT-4 et Bard disposent de filtres de modération de contenu intégrés, ils peuvent toujours produire des résultats toxiques, tels que des discours de haine ou des instructions sur la façon de fabriquer une bombe.
L'IA générative permet aux mauvais acteurs de mener des campagnes de désinformation à plus grande échelle et plus rapidement. Il s’agit d’une situation désastreuse étant donné que les méthodes d’identification et d’étiquetage du contenu généré par l’IA sont terriblement inadéquates.
D'un autre côté, les derniers modèles de langage à grande échelle fonctionnent mieux en interprétation de texte que les systèmes d'intelligence artificielle précédents. En théorie, ils pourraient être utilisés pour faciliter le développement d’une modération automatisée des contenus.
Les entreprises technologiques doivent investir dans la refonte de grands modèles de langage pour atteindre cet objectif spécifique. Bien que des sociétés comme Microsoft aient commencé à se pencher sur la question, il n’y a pas encore d’activité significative.
Farid a déclaré : "Bien que nous ayons constaté de nombreuses avancées technologiques, je suis sceptique quant à toute amélioration de la modération du contenu
."Même si les grands modèles linguistiques progressent rapidement, ils sont toujours confrontés à des défis de compréhension contextuelle, ce qui peut les empêcher de comprendre les différences subtiles entre les publications et les images avec autant de précision que les modérateurs humains. L’évolutivité et la spécificité interculturelles posent également des problèmes. "Déployez-vous un modèle pour un type spécifique de niche ? Le faites-vous par pays ? Le faites-vous par communauté ? Ce n'est pas une question unique", a déclaré DiResta.
De nouveaux outils basés sur les nouvelles technologies
La question de savoir si l’IA générative nuit ou aide le paysage de l’information en ligne dépend en grande partie de la capacité des entreprises technologiques à proposer de bons outils largement adoptés qui nous indiquent si le contenu a été généré par l’IA.
DiResta m'a dit que la détection des médias synthétiques peut être un défi technique qui doit être priorisé car c'est un défi. Cela inclut des méthodes telles que le tatouage numérique, qui consiste à intégrer un morceau de code comme une marque permanente indiquant que le contenu joint a été produit par l'intelligence artificielle. Les outils automatisés de détection des publications générées ou manipulées par l’IA sont attrayants car, contrairement aux filigranes, ils ne nécessitent pas de marquage actif de la part du créateur du contenu généré par l’IA. En d’autres termes, les outils actuels qui tentent d’identifier le contenu généré automatiquement ne fonctionnent pas assez bien.
Certaines entreprises ont même proposé d'utiliser les mathématiques pour enregistrer en toute sécurité les signatures cryptographiques d'informations, telles que la manière dont un contenu a été généré, mais cela s'appuierait sur des technologies de divulgation volontaire telles que les filigranes.
La dernière version de la loi sur l'intelligence artificielle (AI Act) proposée par l'Union européenne la semaine dernière oblige les entreprises qui utilisent l'intelligence artificielle générative à informer les utilisateurs lorsque le contenu est effectivement généré par une machine. Nous en saurons probablement davantage sur les outils émergents dans les mois à venir, à mesure que la demande de transparence dans le contenu généré par l'IA augmente.
Soutien : Ren
Texte original :
https://www.technologyreview.com/2023/05/15/1073019/catcher-bad-content-in-the-age-of-ai/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!