Maison > Article > Périphériques technologiques > L’intelligence artificielle (IA) est-elle fiable ?
En juin 2022, Microsoft a publié le Microsoft Responsible Artificial Intelligence Standard v2, dans le but de « définir les exigences de développement de produits pour une intelligence artificielle responsable ». Étonnamment peut-être, le document ne mentionne qu'un seul type de biais dans l'IA, à savoir que les développeurs d'algorithmes de Microsoft doivent être conscients des problèmes qui peuvent surgir des utilisateurs qui s'appuient trop sur l'IA (également connu sous le nom de « discrimination automatisée »).
En bref, Microsoft semble se soucier davantage de ce que les utilisateurs pensent de ses produits que des effets néfastes que les produits ont réellement sur les utilisateurs. Il s’agit d’une bonne responsabilité commerciale (ne dites rien de négatif sur nos produits), mais d’une mauvaise responsabilité sociale (il existe de nombreux exemples de discrimination algorithmique ayant un impact négatif sur des individus ou des groupes d’individus).
Il existe trois problèmes majeurs non résolus avec l'IA commerciale :
Lorsque l'intelligence artificielle a été introduite pour la première fois dans les produits de cybersécurité, elle a été décrite comme une solution miracle en matière de protection. Il ne fait aucun doute que l’IA a sa valeur, mais avec certains algorithmes défectueux, la discrimination cachée et l’abus de l’IA par les criminels, et même la surveillance de la vie privée par les forces de l’ordre et les agences de renseignement, la voix contre l’IA devient de plus en plus forte.
Selon Scientific American du 6 juin 2022, le problème est la commercialisation d'une science qui est encore en développement :
Les plus grandes équipes de recherche en intelligence artificielle ne se trouvent pas dans le milieu universitaire, mais dans les entreprises. Dans le monde universitaire, l’évaluation par les pairs est reine. Contrairement aux universités, les entreprises ne sont pas incitées à rivaliser équitablement. Plutôt que de soumettre de nouveaux articles universitaires à une évaluation scientifique, ils engagent les journalistes par le biais de communiqués de presse et évitent le processus d'évaluation par les pairs. Nous savons seulement ce que les entreprises veulent que nous sachions.
--Gary Marcus, professeur de psychologie et de neurosciences à l'Université de New York
Le résultat est que nous n'entendons parler que des aspects positifs de l'intelligence artificielle, mais pas des aspects négatifs de l'intelligence artificielle.
Emily Tucker, directrice exécutive du Center for Privacy and Technology de la Georgetown Law School, est arrivée à une conclusion similaire : « À partir d'aujourd'hui, notre centre cessera d'utiliser les termes « intelligence artificielle », « IA » et « machine » dans notre travail. Apprenez » à exposer et à atténuer les méfaits de la technologie numérique dans la vie des individus et des communautés... L'une des raisons pour lesquelles les entreprises technologiques réussissent si bien à contourner le test de Turing en tant que moyen stratégique d'acquérir des capitaux est que les gouvernements sont désireux de le faire. pour accéder à ce que la technologie a à offrir Une surveillance omniprésente, facile à exercer, relativement peu coûteuse et disponible via des processus d’approvisionnement qui contournent la prise de décision ou la surveillance démocratique
En bref, la recherche du profit entrave le développement de l’intelligence artificielle. . développement scientifique. Face à ces préoccupations, nous devons nous demander si l’on peut faire confiance à l’IA présente dans nos produits pour produire des informations précises et des jugements impartiaux, plutôt que d’être utilisée à mauvais escient par des personnes, des criminels ou même des gouvernements.
Cas 1 : Une voiture autonome Tesla s'est dirigée directement vers un travailleur tenant un panneau d'arrêt, ralentissant uniquement lorsque le conducteur est intervenu. La raison en est que l’IA est entraînée à reconnaître les humains et les panneaux d’arrêt, mais elle n’est pas entraînée à reconnaître les humains portant des panneaux d’arrêt.
Cas 2 : Le 18 mars 2018, une voiture autonome Uber a percuté et tué un piéton poussant un vélo. Selon NBC à l'époque, l'IA était incapable de « classer un objet comme piéton à moins que l'objet ne soit proche d'un passage pour piétons ».
Cas 3 : Lors du confinement lié au COVID-19 au Royaume-Uni en 2020, les résultats des tests des étudiants ont été jugés par des algorithmes d'intelligence artificielle. Environ 40 % des élèves ont reçu des notes nettement inférieures aux attentes. En effet, l’algorithme met trop l’accent sur les résultats historiques de chaque école. En conséquence, les élèves des écoles privées et des écoles publiques auparavant très performantes bénéficient d'un avantage considérable par rapport aux autres écoles.
Cas 4 : Tay est un chatbot à intelligence artificielle lancé par Microsoft sur Twitter en 2016. En imitant le vrai langage humain, Tay vise à devenir un système interactif intelligent capable de comprendre l'argot. Mais après seulement 16 heures d’interaction en personne réelle, Tay a été contraint de se déconnecter. "Hitler avait raison de haïr les Juifs", a-t-il tweeté.
Cas 5 : Sélectionner les candidats. Amazon souhaitait que l'IA l'aide à sélectionner automatiquement les candidats pour pourvoir les offres d'emploi, mais les résultats de l'algorithme étaient sexistes et racistes, favorisant les candidats masculins blancs.
Cas 6 : Erreur d'identité. Une équipe de football écossaise a diffusé un match en ligne pendant le confinement dû au coronavirus, en utilisant des caméras alimentées par l'IA pour suivre le ballon. Mais ce système de tir IA considérait constamment la tête chauve du juge de touche comme un ballon de football, et le tir se concentrait toujours sur le juge de touche, pas sur le jeu.
Cas 7 : Demande rejetée. En 2016, une mère a demandé à son fils d'emménager dans l'appartement où elle vivait après s'être réveillée d'un coma pendant six mois, mais a été rejetée par le centre de logement. C'est un an après l'envoi du fils dans un centre de rééducation que la raison en a été révélée par l'intermédiaire d'un avocat. L'intelligence artificielle utilisée par le centre de logement pensait que le fils avait un casier judiciaire, il a donc été mis sur liste noire du logement. Mais en réalité, le fils est cloué au lit et incapable de commettre le crime.
Il existe de nombreux exemples similaires, et les raisons ne sont que deux. L'une est l'échec de la conception causé par des écarts inattendus, et l'autre est l'échec de l'apprentissage. Le cas des voitures autonomes est celui d’un échec d’apprentissage. Même si les erreurs peuvent être corrigées à mesure que le nombre de temps d'apprentissage augmente, tant qu'elles ne sont pas corrigées, le prix à payer une fois mises en service peut être élevé. Mais si vous voulez éviter complètement les risques, cela signifie qu’il ne sera jamais utilisé.
Les cas 3 et 5 sont des échecs de conception et des écarts inattendus ont faussé les résultats. La question est de savoir si les développeurs peuvent supprimer leurs préjugés sans savoir qu’ils les ont.
Une utilisation abusive signifie que l'effet d'application de l'intelligence artificielle n'est pas celui prévu par le développeur. Abuser signifie faire quelque chose intentionnellement, comme polluer les données fournies à une intelligence artificielle. De manière générale, une utilisation abusive résulte généralement des actions du propriétaire d'un produit d'IA, tandis que l'abus implique souvent des actions de tiers (tels que des cybercriminels), entraînant une manipulation du produit d'une manière qui n'était pas prévue par le propriétaire. Examinons d’abord les abus.
Kazerounian, responsable de la recherche chez Vectra AI, estime que lorsque des algorithmes développés par l'homme tentent de porter des jugements sur d'autres personnes, des préjugés cachés sont inévitables. En ce qui concerne les demandes de crédit et les demandes de location, par exemple, les États-Unis ont une longue histoire de redlining et de racisme, et ces politiques discriminatoires sont bien antérieures à l’automatisation basée sur l’IA.
De plus, lorsque les préjugés sont profondément ancrés dans les algorithmes d’intelligence artificielle, ils sont plus difficiles à détecter et à comprendre que les préjugés humains. "Vous pourrez peut-être voir les résultats de classification des opérations matricielles dans les modèles d'apprentissage profond. Mais les gens ne peuvent expliquer que le mécanisme de l'opération, mais pas le pourquoi. Cela explique uniquement le mécanisme. Je pense qu'à un niveau supérieur, ce que nous La question suivante est la suivante : est-ce que certaines choses peuvent être laissées à l'intelligence artificielle ? » . L'étude a révélé que l'intelligence artificielle était capable d'identifier la race en s'appuyant uniquement sur des images médicales, telles que des radiographies et des tomodensitogrammes, mais personne ne savait comment l'IA y parvenait. Si nous y réfléchissons plus en profondeur, les systèmes médicaux d'IA pourraient être capables de faire bien plus que nous ne l'imaginons lorsqu'il s'agit de déterminer la race, l'origine ethnique, le sexe d'un patient et même s'il est incarcéré.
Anthony Seeley, professeur agrégé de médecine à la Harvard Medical School et l'un des auteurs, a commenté : « Ce n'est pas parce que vous avez une représentation de différents groupes dans votre algorithme (la qualité et la validité de vos données) que cela ne garantit pas qu'il Il en sera toujours ainsi, et cela amplifie les disparités et les inégalités existantes. Nourrir les algorithmes avec davantage de données n’est pas une panacée. Cet article devrait nous faire réfléchir et vraiment reconsidérer notre volonté d’appliquer l’intelligence artificielle au diagnostic clinique. Le problème a également touché le domaine de la sécurité des réseaux. Le 22 avril 2022, Microsoft a ajouté une fonctionnalité appelée « Leaver Classifier » à sa feuille de route produit. Le produit devrait être disponible en septembre 2022. "Le classificateur de départ peut détecter précocement les employés qui ont l'intention de quitter l'organisation afin de réduire le risque de fuite de données intentionnelle ou non en raison du roulement du personnel."
Lorsque certains médias ont tenté d'interviewer Microsoft sur le thème de l'intelligence artificielle et de la vie privée. J'ai obtenu cette réponse : "Microsoft n'a rien à partager pour le moment, mais s'il y a de nouvelles nouvelles, nous vous le ferons savoir à temps."
En termes d'éthique, ce qu'il faut considérer, c'est si l'IA est utilisée pour prédire l'intention. de quitter l’entreprise. C’est l’utilisation correcte de la technologie. Au moins, la plupart des gens pensent que surveiller les communications pour déterminer si quelqu'un envisage de quitter son emploi est la chose juste ou appropriée à faire, surtout si les conséquences pourraient être négatives.
De plus, les biais inattendus dans les algorithmes sont difficiles à éviter et encore plus difficiles à détecter. Puisqu’il est difficile, même pour les humains, de juger efficacement des motivations personnelles lorsqu’il s’agit de prédire si quelqu’un quittera son emploi, pourquoi les systèmes d’intelligence artificielle ne commettent-ils pas d’erreurs ? De plus, les gens communiquent au travail de différentes manières en parlant, en faisant des suppositions, en plaisantant, en se mettant en colère ou en parlant des autres. Même si vous visitez un site de recrutement pour mettre à jour votre CV, il se peut que ce ne soit qu’une pensée passagère dans votre esprit. Une fois que l’apprentissage automatique détermine que les employés sont très susceptibles de partir, ils seront probablement les premiers à être licenciés en cas de ralentissement économique et ne seront pas éligibles à des augmentations de salaire ou à des promotions.
Il existe également une possibilité plus large. Si les entreprises peuvent disposer de cette technologie, les forces de l’ordre et les agences de renseignement le feront également. La même erreur de jugement peut se produire, et les conséquences sont bien plus graves qu’une promotion ou une augmentation de salaire.
Alex Polyakov, fondateur et PDG d'Adversa.ai, est plus préoccupé par les abus de l'IA liés à la manipulation du processus d'apprentissage automatique. « Les recherches effectuées par des scientifiques et les travaux d'évaluation du monde réel réalisés par nos équipes rouges d'IA [jouant le rôle d'un attaquant] ont prouvé que pour tromper les décisions de l'IA, qu'il s'agisse de vision par ordinateur, de traitement du langage naturel ou autre, il suffit de modifier un très petit ensemble d'entrées. "
Par exemple, les mots "mange des pousses et des feuilles" peuvent représenter des végétariens ou des terroristes en ajoutant simplement différents signes de ponctuation. Pour l’intelligence artificielle, il est presque impossible d’épuiser le sens de tous les mots dans tous les contextes.
De plus, Polyakov a prouvé à deux reprises à quel point il est facile de tromper les systèmes de reconnaissance faciale. La première fois, le système d'intelligence artificielle a été amené à croire que toutes les personnes devant lui étaient Elon Musk. Le deuxième exemple consistait à utiliser l'image d'un humain qui ressemblait évidemment à la même personne, mais qui était interprétée par l'intelligence artificielle comme étant. plusieurs personnes différentes. Les principes impliqués, celui de manipuler le processus d’apprentissage de l’intelligence artificielle, peuvent être appliqués par les cybercriminels à presque tous les outils d’intelligence artificielle.
En dernière analyse, l’intelligence artificielle n’est qu’une intelligence machine enseignée par les humains. Nous sommes encore loin de la véritable intelligence artificielle, même si nous ne discutons pas de la possibilité de parvenir à une véritable intelligence artificielle. Pour l’instant, l’IA doit être considérée comme un outil permettant d’automatiser de nombreuses tâches humaines courantes, avec des taux de réussite et d’échec similaires à ceux des humains. Bien sûr, c’est beaucoup plus rapide et beaucoup moins coûteux qu’une coûteuse équipe d’analystes.
Enfin, qu’il s’agisse d’un biais d’algorithme ou d’une mauvaise utilisation de l’IA, tous les utilisateurs de l’intelligence artificielle devraient réfléchir à cette question : au moins à ce stade, nous ne pouvons pas trop nous fier aux résultats de l’intelligence artificielle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!