Maison  >  Article  >  Périphériques technologiques  >  Opinion d’expert : l’IA sans supervision produira un biais éthique

Opinion d’expert : l’IA sans supervision produira un biais éthique

WBOY
WBOYavant
2023-04-09 14:21:12923parcourir

La transparence joue souvent un rôle clé dans les dilemmes éthiques des entreprises : plus nous disposons d’informations, plus il est facile de déterminer quels sont les résultats acceptables et inacceptables. Si les finances sont mal alignées, qui a commis l’erreur comptable ? Qui est responsable de la protection des données en cas de violation, et agit-il correctement ?

Opinion d’expert : l’IA sans supervision produira un biais éthique

Mais que se passe-t-il lorsque nous recherchons la source claire d'un bug ou d'un problème et que nous ne trouvons personne ? C’est là que l’intelligence artificielle soulève des considérations éthiques uniques.

L'intelligence artificielle montre un grand potentiel dans les organisations, mais elle reste encore une solution à la recherche d'un problème. Il s’agit d’un concept mal compris et dont l’application pratique n’a pas encore été pleinement réalisée au sein de l’entreprise. Si l’on ajoute à cela le fait que de nombreuses entreprises ne disposent pas du budget, du talent et de la vision nécessaires pour appliquer l’IA de manière véritablement transformationnelle, l’IA est encore loin d’atteindre la masse critique et est sujette aux abus.

Mais ce n’est pas parce que l’IA n’est pas très visible dans les activités quotidiennes qu’elle n’a pas un rôle à jouer quelque part au sein de votre organisation. Comme beaucoup d’autres dilemmes éthiques dans le monde des affaires, les manquements éthiques en matière d’intelligence artificielle se produisent souvent dans l’ombre. Qu’elles soient intentionnelles ou non, les conséquences d’un projet ou d’une application d’IA repoussant les limites éthiques peuvent être cauchemardesques. La clé pour éviter les manquements éthiques dans l’IA est de mettre en place dès le départ une gouvernance d’entreprise sur le projet.

Construire l'IA avec transparence et confiance

Nous connaissons tous des exemples populaires d'IA qui ont mal tourné. Les distributeurs de savon qui ne fonctionnent pas correctement pour les clients à la peau foncée, les oxymètres de pouls qui sont plus précis pour les personnes blanches et même les algorithmes qui prédisent si les criminels retourneront en prison sont tous des intelligences artificielles (sans doute involontaires).

Non seulement ces situations génèrent de mauvais titres et des réactions négatives sur les réseaux sociaux, mais elles compromettent également des cas d’utilisation plus légitimes de l’IA qui ne seront pas possibles si la technologie continue d’être considérée avec méfiance. Par exemple, dans le seul domaine des soins de santé, l’IA a le potentiel d’améliorer le diagnostic du cancer et de signaler les patients présentant un risque élevé de réadmission pour un soutien supplémentaire. Si nous n’apprenons pas à renforcer la confiance des gens dans l’IA, nous ne pourrons pas tirer pleinement parti de ces solutions puissantes.

Lorsque je parle d'IA avec mes pairs et chefs d'entreprise, j'ai soutenu dès le début l'idée de transparence et de gouvernance dans les efforts d'IA. Plus précisément, voici mes suggestions :

1. L'IA éthique ne peut pas se produire en vase clos

Si elles ne sont pas mises en œuvre correctement, les applications d'IA peuvent avoir des effets d'entraînement importants. Cela se produit souvent lorsqu’un seul service ou une équipe informatique commence à expérimenter des processus basés sur l’IA sans surveillance. L’équipe est-elle consciente des implications éthiques qui pourraient survenir si leur expérience tourne mal ? Le déploiement est-il conforme aux politiques existantes de conservation et d’accès aux données de l’entreprise ? Sans encadrement, il est difficile de répondre à ces questions.

Et sans gouvernance, il peut être plus difficile de rassembler les parties prenantes nécessaires pour corriger un manquement éthique si celui-ci se produit. La surveillance ne doit pas être considérée comme un obstacle à l’innovation, mais comme un contrôle nécessaire pour garantir que l’IA fonctionne dans certaines limites éthiques. La supervision devrait en fin de compte incomber au Chief Data Officer de l’organisation qui les possède, ou au Chief Information Officer si le rôle de CDO n’existe pas.

2. Ayez toujours un plan

Les pires gros titres que nous voyons sur les projets d'IA qui tournent mal ont généralement une chose en commun : les entreprises qui les composent ne sont pas prêtes à répondre aux questions ou à expliquer les décisions lorsque les choses tournent mal. La supervision peut résoudre ce problème. Lorsqu’une compréhension de l’IA et une philosophie saine existent aux plus hauts niveaux d’une organisation, celle-ci est moins susceptible d’être prise au dépourvu par les problèmes.

3. La diligence raisonnable et les tests sont obligatoires

Avec plus de patience et plus de tests, de nombreux exemples classiques de biais de l'IA peuvent être atténués. Comme dans l’exemple du distributeur de désinfectant pour les mains, l’enthousiasme d’une entreprise à l’idée de montrer sa nouvelle technologie finit par se retourner contre lui. Des tests plus approfondis pourraient révéler ce biais avant que le produit ne soit rendu public. De plus, toute application d’IA doit être rigoureusement vérifiée dès le départ. En raison de la complexité et du potentiel incertain de l’IA, elle doit être utilisée de manière stratégique et prudente.

4. Considérez les capacités de supervision de l'IA

Pour protéger la vie privée des clients, les institutions financières investissent des ressources importantes dans la gestion de l'accès aux fichiers sensibles. Leur équipe d'archivage catégorise soigneusement les actifs et construit une infrastructure pour garantir que seul le rôle professionnel et le service appropriés peuvent les voir. Cette structure peut servir de modèle pour construire la fonction de gouvernance de l’IA d’une organisation. Une équipe dédiée peut estimer l’impact positif ou négatif potentiel d’une application d’IA et déterminer à quelle fréquence ses résultats doivent être examinés et par qui.

Pour les entreprises en quête de rupture numérique, expérimenter l’intelligence artificielle est une prochaine étape importante. Il libère les travailleurs humains des tâches banales et permet à certaines activités, telles que l’analyse d’images, d’évoluer d’une manière qui n’était pas financièrement prudente auparavant. Mais ce n’est pas quelque chose à prendre à la légère. Les applications d’IA doivent être développées avec soin et sous une supervision appropriée pour éviter les préjugés, les décisions éthiquement discutables et les mauvais résultats commerciaux. Assurez-vous d'avoir la bonne formation pour les efforts d'IA au sein de votre organisation. Les fautes morales les plus graves se produisent souvent dans des endroits sombres.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer