Maison  >  Article  >  Périphériques technologiques  >  Comment éviter les risques de l'intelligence artificielle ?

Comment éviter les risques de l'intelligence artificielle ?

PHPz
PHPzavant
2023-04-21 14:01:081608parcourir

Comment éviter les risques de lintelligence artificielle ?

Les systèmes d'intelligence artificielle et les projets d'IA sont de plus en plus courants aujourd'hui, alors que les entreprises exploitent la puissance de cette technologie émergente pour automatiser la prise de décision et améliorer l'efficacité.

Si votre entreprise met en œuvre un projet d'IA à grande échelle, comment devez-vous vous préparer Voici les trois risques les plus importants associés à l'IA, et comment les prévenir et les atténuer.

1. De la confidentialité à la sécurité

Les gens sont très préoccupés par leur vie privée, et l'intelligence artificielle de reconnaissance faciale se développe rapidement à certains égards, soulevant des préoccupations éthiques en matière de confidentialité et de surveillance. Par exemple, la technologie pourrait permettre aux entreprises de suivre le comportement et même les émotions des utilisateurs sans leur consentement. Le gouvernement américain a récemment proposé une « Charte des droits en matière d’intelligence artificielle » pour empêcher que la technologie de l’IA ne cause de réels dommages allant à l’encontre des valeurs fondamentales, notamment le droit fondamental à la vie privée.

Les responsables informatiques doivent informer les utilisateurs des données collectées et obtenir leur consentement. Au-delà de cela, une formation et une mise en œuvre appropriées concernant les ensembles de données sont essentielles pour prévenir les violations de données et les violations potentielles de la sécurité.

Testez un système d'IA pour vous assurer qu'il atteint ses objectifs sans conséquences inattendues, comme permettre aux pirates d'accéder à des informations sensibles à l'aide de fausses données biométriques. La mise en œuvre d’une surveillance d’un système d’IA permettrait à une entreprise d’arrêter ou d’annuler ses actions si nécessaire.

2. De l'opaque au transparent

De nombreux systèmes d'intelligence artificielle qui utilisent l'apprentissage automatique sont opaques, ce qui signifie que la manière dont ils prennent des décisions n'est pas claire. Par exemple, une étude approfondie des données hypothécaires montre que les outils d’IA prédictifs utilisés pour approuver ou refuser des prêts sont moins précis pour les candidats issus de minorités. L’opacité de la technologie viole le « droit à l’explication » des demandeurs qui se sont vu refuser un prêt.

Lorsque l'outil d'IA/ML d'une entreprise prend une décision importante pour ses utilisateurs, elle doit s'assurer qu'ils en sont informés et qu'ils reçoivent une explication complète des raisons pour lesquelles la décision a été prise.

L’équipe d’IA d’une entreprise doit également être capable de suivre les facteurs clés menant à chaque décision et de diagnostiquer toute erreur en cours de route. La documentation interne destinée aux employés et la documentation externe destinée aux clients doivent expliquer comment et pourquoi le système d'IA fonctionne comme il le fait.

3. Du biais à l'équité

Une étude récente montre que les systèmes d'intelligence artificielle formés sur des données biaisées renforcent les modèles de discrimination, du sous-recrutement dans les études médicales à la moindre participation des scientifiques et encore moins de traitement des patients issus de minorités. en recherche.

Les gens doivent se demander : si un résultat inattendu se produisait, qui ou quel groupe cela affecterait ? Cela affecterait-il tous les utilisateurs de la même manière, ou uniquement des groupes spécifiques ?

Examinez attentivement les données historiques pour évaluer s'il existe un biais potentiel ? ou un biais atténué. Un facteur souvent négligé est la diversité de l'équipe de développement d'une entreprise, et des équipes plus diversifiées conduisent souvent à des processus et des résultats plus équitables.

Pour éviter tout préjudice involontaire, les organisations doivent s’assurer que toutes les parties prenantes des équipes de développement, de produits, d’audit et de gouvernance d’IA/ML comprennent parfaitement les principes, les valeurs et les plans de contrôle de haut niveau qui guident les projets d’IA de l’organisation. Obtenez des évaluations indépendantes pour confirmer que tous les projets sont alignés sur ces principes et valeurs.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer