Maison  >  Article  >  Périphériques technologiques  >  Comment éviter les problèmes de biais d'IA avec les générateurs de données synthétiques

Comment éviter les problèmes de biais d'IA avec les générateurs de données synthétiques

王林
王林avant
2023-04-26 14:40:08784parcourir

Comment éviter les problèmes de biais dIA avec les générateurs de données synthétiques

Les biais liés à l'IA sont un problème grave qui peut avoir diverses conséquences pour les individus.

À mesure que l'intelligence artificielle progresse, des problèmes et des dilemmes éthiques entourant les solutions de science des données commencent à faire surface. Parce que les humains se sont retirés du processus décisionnel, ils veulent s’assurer que les jugements portés par ces algorithmes ne soient ni biaisés ni discriminatoires. L’intelligence artificielle doit être surveillée à tout moment. On ne peut pas dire que cet éventuel biais soit causé par l’intelligence artificielle, car il s’agit d’un système numérique basé sur l’analyse prédictive capable de traiter de grandes quantités de données. Le problème commence beaucoup plus tôt, lorsque des données non supervisées sont « introduites » dans le système.

Tout au long de l'histoire, les humains ont toujours eu des préjugés et des discriminations. Nos actions ne semblent pas changer de sitôt. Les biais se retrouvent dans des systèmes et des algorithmes qui, contrairement aux humains, semblent immunisés contre le problème.

Qu'est-ce que le biais de l'intelligence artificielle ?

Le biais de l'IA se produit dans les domaines liés aux données lorsque la manière dont les données sont obtenues aboutit à des échantillons qui ne représentent pas correctement les groupes d'intérêt. Cela suggère que les personnes de certaines races, croyances, couleurs et sexes sont sous-représentées dans les échantillons de données. Cela peut amener le système à tirer des conclusions discriminantes. Cela soulève également des questions sur ce qu’est le conseil en science des données et pourquoi il est important.

Les biais dans l'IA ne signifient pas que le système d'IA est créé pour favoriser intentionnellement un groupe spécifique de personnes. Le but de l’intelligence artificielle est de permettre aux individus d’exprimer leurs désirs à travers des exemples plutôt que des instructions. Ainsi, si l’IA est biaisée, cela ne peut être que parce que les données sont biaisées. La prise de décision en matière d’intelligence artificielle est un processus idéalisé qui fonctionne dans le monde réel, et elle ne peut pas cacher les défauts humains ! L’intégration d’un apprentissage guidé est également bénéfique.

Pourquoi cela arrive-t-il ?

Le problème des biais de l'intelligence artificielle se pose car les données peuvent contenir des choix humains basés sur des idées préconçues, ce qui est propice à tirer de bonnes conclusions algorithmiques. Il existe plusieurs exemples concrets de biais de l’IA. Les personnes racialisées et les drag queens célèbres ont été discriminées par le système de détection des discours de haine de Google. Depuis 10 ans, les algorithmes des ressources humaines d'Amazon ont principalement alimenté des données sur les employés masculins, ce qui fait que les candidates ont plus de chances d'être considérées comme qualifiées pour des emplois chez Amazon.

Les algorithmes de reconnaissance faciale ont un taux d'erreur plus élevé lors de l'analyse des visages des minorités, en particulier des femmes appartenant à des minorités, selon les data scientists du Massachusetts Institute of Technology (MIT). Cela peut être dû au fait que l’algorithme a principalement été nourri avec des visages masculins blancs pendant l’entraînement.

Parce que l'algorithme d'Amazon est formé sur les données de ses 112 millions d'utilisateurs Prime aux États-Unis, ainsi que des dizaines de millions de personnes supplémentaires qui fréquentent le site et utilisent fréquemment ses autres produits, l'entreprise peut prédire comportement d'achat du consommateur. L'activité publicitaire de Google repose sur des algorithmes prédictifs alimentés par les données des milliards de recherches Internet effectuées chaque jour et par les 2,5 milliards de smartphones Android présents sur le marché. Ces géants de l’Internet ont établi d’énormes monopoles sur les données et disposent d’avantages presque insurmontables dans le domaine de l’intelligence artificielle.

Comment les données synthétiques peuvent-elles aider à résoudre les préjugés liés à l'intelligence artificielle ?

Dans une société idéale, personne ne sera biaisé et tout le monde aura les mêmes chances, quels que soient la couleur de la peau, le sexe, religion ou orientation sexuelle. Cependant, cela existe dans le monde réel, et ceux qui sont différents de la majorité dans certains domaines ont plus de mal à trouver un emploi et à obtenir une éducation, ce qui les rend sous-représentés dans de nombreuses statistiques. En fonction des objectifs du système d'IA, cela pourrait conduire à des déductions erronées selon lesquelles ces personnes sont moins compétentes, moins susceptibles d'être incluses dans ces ensembles de données et moins aptes à obtenir de bons scores.

D’un autre côté, les données de l’IA pourraient constituer un grand pas vers une IA impartiale. Voici quelques concepts à considérer :

Regardez les données du monde réel et voyez où se situe le biais. Les données sont ensuite synthétisées à partir de données réelles et de biais observables. Si vous souhaitez créer un générateur de données virtuelles idéal, vous devez inclure une définition de l'équité qui tente de transformer les données biaisées en données pouvant être considérées comme équitables.

Les données générées par l'IA peuvent combler les lacunes d'un ensemble de données qui ne varient pas beaucoup ou ne sont pas suffisamment volumineuses pour former un ensemble de données impartial. Même avec un échantillon de grande taille, il est possible que certaines personnes aient été exclues ou sous-représentées par rapport à d’autres. Ce problème doit être résolu en utilisant des données synthétiques.

L'exploration de données peut être plus coûteuse que la génération de données impartiales. La collecte de données proprement dite nécessite des mesures, des entretiens, de grands échantillons et, dans tous les cas, beaucoup d'efforts. Les données générées par l’IA sont bon marché et nécessitent uniquement l’utilisation d’algorithmes de science des données et d’apprentissage automatique.

Au cours des dernières années, les dirigeants de nombreuses sociétés de données synthétiques à but lucratif, ainsi que le fondateur de Synthea, MitreCorp., ont remarqué un regain d'intérêt pour leurs services. Cependant, à mesure que les algorithmes sont utilisés plus largement pour prendre des décisions qui changent la vie, il s’avère qu’ils exacerbent le racisme, le sexisme et les préjugés néfastes dans d’autres domaines à fort impact, notamment la reconnaissance faciale, la prédiction de la criminalité et la prise de décision en matière de soins de santé. Les chercheurs affirment que la formation d’algorithmes sur des données générées de manière algorithmique augmente la probabilité que les systèmes d’IA perpétuent des préjugés nuisibles dans de nombreuses situations.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer