Maison > Article > Périphériques technologiques > Comment l’intelligence artificielle peut éliminer les fausses nouvelles et les préjugés sur Internet
Il y a toujours un risque que les informations que les gens entendent ou lisent soient inexactes, qu'elles proviennent de journaux, de magazines, de sources en ligne ou d'émissions. La désinformation existe depuis l’aube de la culture humaine, mais le volume considérable d’informations que nous recevons de notre monde en ligne interconnecté nous rend particulièrement vulnérables à la consommation par inadvertance de contenus déformés ou falsifiés. Les gens doivent comprendre la complexité de la façon dont l’IA peut aider à résoudre le problème des fausses nouvelles et des préjugés.
Les consommateurs sont habitués à ce que leurs opinions soient influencées par ce qu'ils lisent, voient et entendent en ligne, par exemple par le biais du marketing d'influence ou du soutien de célébrités. Les opinions ont beaucoup de pouvoir, qu’elles soient étayées ou non par des faits, et de nombreuses fausses nouvelles reposent sur l’éveil d’émotions fortes. Lorsqu’il s’agit de l’attention et des sentiments des gens, il est souvent nécessaire de s’arrêter et de se demander si ce que nous entendons ou lisons est exact.
Selon des chercheurs du MIT Open a new window, il faut six fois plus de temps pour qu'une vraie nouvelle atteigne 1 500 personnes sur Twitter qu'une fausse nouvelle. En outre, la longueur de la chaîne (le nombre de personnes partageant une publication sur les réseaux sociaux) entre les nouvelles exactes et les fausses nouvelles est hautement disproportionnée. Les nouvelles vérifiables n’ont jamais dépassé 10, mais les fausses nouvelles sont passées à 19. Cela est dû en partie au fait que des acteurs malveillants utilisent des essaims de robots pour diffuser des informations incorrectes.
La désinformation touche désormais les personnes, les gouvernements et les entreprises du monde entier. Dans l’économie de l’information numérique en pleine expansion d’aujourd’hui, découvrir et séparer les « fausses nouvelles » constitue une tâche majeure. Cependant, les progrès de l’intelligence artificielle (IA) pourraient permettre aux utilisateurs d’informations en ligne de distinguer plus facilement la réalité de la fiction.
Voici un aperçu de la façon dont l’intelligence artificielle peut être utilisée pour arrêter la propagation de la désinformation et faire d’Internet une source d’information plus équilibrée.
En utilisant des algorithmes avancés pour découvrir et atteindre les personnes susceptibles d'absorber facilement des informations, les entreprises légitimes utilisent l'intelligence artificielle pour localiser et cibler les consommateurs les plus probables d'une information ou avis. Par exemple, Google a mis en œuvre son algorithme RankBrain en 2015 pour améliorer sa capacité à identifier les résultats faisant autorité.
Pour distinguer le matériel généré par ordinateur des articles générés par l'homme, la technologie basée sur l'IA peut effectuer une analyse linguistique du contenu du texte et trouver des indices tels que les modèles de mots, la structure syntaxique et la lisibilité. Ces algorithmes peuvent analyser n’importe quel texte pour trouver des cas de discours de haine en examinant les vecteurs de mots, les positions des mots et leurs connotations.
Les fausses sources de nouvelles proviennent généralement d'une source illégale avant que l'information ne se propage. Le projet Fandango recherche des publications sur les réseaux sociaux ou des sites Internet comportant le même terme ou la même affirmation après avoir utilisé des articles jugés faux par des vérificateurs de faits humains. Cela permet aux journalistes et aux experts de retrouver la source de la désinformation et de neutraliser tout danger avant qu’il n’ait une chance de devenir incontrôlable.
Politifact, Snopes et FactCheck utilisent des éditeurs humains pour mener l'enquête primaire nécessaire pour confirmer l'authenticité d'une histoire ou d'une image. Une fois qu’un faux est identifié, le système d’IA recherche sur le Web des informations similaires susceptibles de déclencher des troubles sociaux. De plus, l'application peut attribuer un score de réputation à un article de site Web si le contenu est jugé authentique.
Certains moteurs d'IA utilisent actuellement les mesures suivantes dans leurs scores d'évaluation :
• Analyse des sentiments : attitudes des journalistes à l'égard de l'actualité en général ou d'un sujet spécifique sur lequel ils écrivent.
•Analyse des opinions : sentiments personnels, opinions, croyances ou évaluations du travail d'un journaliste
•Analyse des révisions : étude de la façon dont un reportage évolue au fil du temps et de la manière dont il manipule la perception et les sentiments du public.
•Analyse de la propagande : utilisez l'analyse de la propagande pour détecter jusqu'à 18 stratégies de persuasion différentes, ce qui peut vous aider à découvrir une désinformation potentielle.
Les quatre combinés fournissent une image complète de la crédibilité d’un article, ainsi que des problèmes auxquels nous sommes confrontés.
Les modèles linguistiques comme GPT-3 peuvent déjà créer des articles, de la poésie et de la prose sur la base d'une seule ligne d'invites. L’intelligence artificielle est sur le point de perfectionner la création de matériaux qui ressemblent aux humains. L’intelligence artificielle a rendu si facile la manipulation de toutes sortes d’informations que des programmes open source comme FaceSwap et DeepFaceLab pourraient faire de nouveaux utilisateurs inexpérimentés le centre de troubles sociaux potentiels.
Ces problèmes sont aggravés par le fait que ces algorithmes d’analyse sémantique sont incapables de déchiffrer l’essence des images de discours de haine, qui ne sont pas modifiées mais circulent dans des contextes nuisibles ou inexacts.
Une fois qu'un contenu frauduleux est découvert, sa suppression est plus difficile qu'il n'y paraît. Certaines organisations peuvent être accusées de censure et de tentative de dissimulation d'informations qu'une organisation ou une autre considère comme fausses. Il est difficile de trouver un équilibre entre le droit à la liberté d’expression et la lutte contre la désinformation et les fausses nouvelles.
L’IA n’a généralement pas non plus la capacité de reconnaître l’humour et les farces. Par conséquent, si les fausses nouvelles ou la désinformation sont utilisées de manière légère ou en plaisantant, elles peuvent être classées comme désinformation malveillante. Mais il est indéniable que l’IA peut être un atout considérable dans la lutte contre les fausses nouvelles. Dans la lutte contre les fausses informations sur Internet, la technologie est cruciale car elle peut gérer de grandes quantités de matériel.
Les fausses nouvelles ne sont pas un problème qui peut être résolu uniquement par des algorithmes : nous devons changer notre état d'esprit dans la manière dont nous acquérons des connaissances. Si le crowdsourcing de connaissances collaboratives entre groupes professionnels est essentiel pour évaluer les données brutes, une communauté d’utilisateurs avertis peut également soutenir les initiatives de surveillance éthique.
Des actions actives sans la participation de toutes les parties peuvent accélérer la perte de confiance du public dans les institutions et les médias, ce qui est un prélude à l'anarchie. Jusqu’à ce que les humains puissent développer la capacité d’analyser objectivement le contenu en ligne, les technologies basées sur l’IA doivent devenir des partenaires dans la lutte contre la désinformation sur Internet.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!