Maison >Périphériques technologiques >IA >Comment une utilisation responsable de l'IA peut créer des espaces en ligne plus sûrs
Grâce aux progrès de l'informatique, de la science des données et à la disponibilité d'ensembles de données massifs, l'intelligence artificielle (IA) est devenue une réalité quotidienne et un outil commercial puissant. Les grandes entreprises technologiques comme Google, Amazon et Meta développent désormais des systèmes basés sur l’IA. La technologie peut imiter la parole humaine, détecter des maladies, prédire les activités criminelles, rédiger des contrats juridiques, résoudre les problèmes d'accessibilité et accomplir des tâches mieux que les humains. Pour les entreprises, l’IA promet de prédire les résultats commerciaux, d’améliorer les processus et d’augmenter l’efficacité tout en réalisant des économies significatives.
Mais les inquiétudes concernant l’intelligence artificielle continuent de croître.
Les algorithmes d'IA sont devenus si puissants que certains experts qualifient l'IA de sensible et que toute corruption, falsification, préjugé ou discrimination peut avoir un impact énorme sur les organisations, la vie humaine et la société.
La prise de décision par l’intelligence artificielle affecte et change la vie des gens à une échelle croissante. Leur utilisation irresponsable peut exacerber les préjugés humains et les mesures discriminatoires existants, tels que le profilage racial, la prédiction comportementale ou l'identification de l'orientation sexuelle. Ce biais inhérent se produit parce que la qualité de l’IA dépend de la quantité de données d’entraînement que nous pouvons lui fournir, ce qui est sensible aux biais humains.
Des biais peuvent également survenir lorsque les algorithmes d'apprentissage automatique sont formés et testés sur des données qui sous-représentent certains groupes ethniques, tels que les femmes, les personnes de couleur ou les personnes d'un certain âge. Par exemple, des recherches montrent que les personnes de couleur sont particulièrement vulnérables aux biais algorithmiques de la technologie de reconnaissance faciale.
Des écarts peuvent également survenir lors de l'utilisation. Par exemple, un algorithme conçu pour une application spécifique peut être utilisé à des fins involontaires, conduisant à une mauvaise interprétation du résultat.
La discrimination basée sur l'IA peut être abstraite, non intuitive, subtile, invisible et difficile à détecter. Le code source peut être restreint ou les auditeurs peuvent ne pas savoir comment l'algorithme est déployé. La complexité d’examiner un algorithme pour voir comment il est écrit et comment il répond ne peut être sous-estimée.
Les lois actuelles sur la confidentialité reposent sur la notification et le choix ; par conséquent, les avis qui en résultent exigeant que les consommateurs acceptent de longues politiques de confidentialité sont rarement lus. Si de tels avis étaient appliqués à l’intelligence artificielle, cela aurait de graves conséquences sur la sécurité et la vie privée des consommateurs et de la société.
Bien que les véritables logiciels malveillants basés sur l'IA n'existent pas encore, il n'est pas exagéré de supposer que les logiciels malveillants basés sur l'IA amélioreront les capacités des attaquants. Les possibilités sont infinies : des logiciels malveillants qui apprennent de l'environnement pour identifier et exploiter de nouvelles vulnérabilités, des outils qui testent la sécurité basée sur l'IA ou des logiciels malveillants qui peuvent empoisonner l'IA avec de la désinformation.
Les contenus numériques manipulés par l’intelligence artificielle sont déjà utilisés pour créer des copies synthétiques ultra-réalistes d’individus en temps réel (également appelées deepfakes). En conséquence, les attaquants utiliseront les deepfakes pour créer des attaques d’ingénierie sociale très ciblées, provoquer des pertes financières, manipuler l’opinion publique ou obtenir un avantage concurrentiel.
« La discrimination basée sur l'IA peut être abstraite, non intuitive, subtile, invisible et difficile à détecter. Le code source peut être restreint, ou les auditeurs peuvent ne pas savoir comment l'algorithme est déployé. » – Steve Durbin, PDG, Sécurité de l'information. Forum
Alors que les décisions en matière d'IA ont un impact et une influence de plus en plus importants sur la vie des gens, les entreprises ont la responsabilité morale, sociale et fiduciaire d'agir de manière éthique en gérant l'adoption de l'intelligence artificielle. Ils peuvent le faire de plusieurs manières.
L'IA éthique adhère à des principes éthiques clairement définis et à des valeurs fondamentales telles que les droits individuels, la vie privée, la non-discrimination et, surtout, la non-manipulation. Les organisations doivent établir des principes clairs pour identifier, mesurer, évaluer et atténuer les risques liés à l’IA. Ensuite, ils doivent les traduire en mesures pratiques et mesurables et les intégrer dans les processus quotidiens.
Disposer des bons outils pour enquêter sur les sources de biais et comprendre l'impact de l'équité dans la prise de décision est absolument essentiel pour développer une IA éthique. Identifiez les systèmes qui utilisent l'apprentissage automatique, déterminez leur importance pour l'entreprise et mettez en œuvre des processus, des contrôles et des contre-mesures contre les préjugés causés par l'IA.
Les organisations devraient établir un comité d'éthique interdisciplinaire pour superviser la gestion et la surveillance continues des risques introduits par les systèmes d'intelligence artificielle dans l'organisation et la chaîne d'approvisionnement. Les comités doivent être composés de personnes d'horizons divers pour garantir une sensibilité à toutes les questions éthiques.
La conception d'algorithmes doit prendre en compte l'opinion d'experts, les connaissances contextuelles et la conscience des préjugés historiques. Des processus d'autorisation manuels doivent être appliqués dans les domaines critiques, comme dans les transactions financières, pour éviter qu'elles ne soient compromises par des acteurs malveillants.
Cultivez une culture qui permet aux individus de faire part de leurs préoccupations concernant les systèmes d'IA sans étouffer l'innovation. Renforcez la confiance interne dans l’IA en gérant de manière transparente les rôles, les attentes et les responsabilités. Reconnaître la nécessité de créer de nouveaux rôles et de perfectionner, de recycler ou d'embaucher de manière proactive.
Autonomisez les utilisateurs en leur offrant un meilleur contrôle et un meilleur accès aux recours si nécessaire. Un leadership fort est également essentiel pour responsabiliser les employés et promouvoir une IA responsable en tant que nécessité commerciale.
Les inspections programmées sont la méthode traditionnelle d'évaluation de l'équité humaine. Elles peuvent bénéficier de l'intelligence artificielle en exécutant des algorithmes sur les processus de prise de décision humains, en comparant les résultats et en expliquant les raisons qui se cachent derrière les machines. décisions. Un autre exemple est le programme de recherche du MIT sur la lutte contre le racisme systémique, qui vise à développer et à utiliser des outils informatiques pour créer l’équité raciale dans de nombreux secteurs différents de la société.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!