Maison  >  Article  >  Périphériques technologiques  >  Le commissaire britannique à l’information met en garde : les outils d’IA d’analyse des sentiments ne sont pas des options fiables et efficaces

Le commissaire britannique à l’information met en garde : les outils d’IA d’analyse des sentiments ne sont pas des options fiables et efficaces

王林
王林avant
2023-05-08 12:46:081195parcourir

Le British Information Commissioner (ICO) a récemment averti les leaders de la technologie qu'il est préférable de ne pas acheter d'outils d'IA d'analyse des sentiments, car cette technologie n'est pas aussi efficace qu'on le pense et peut également conduire à des biais et à de la discrimination en matière d'IA. Les entreprises qui adoptent cette technologie risquent d'être soumises à un examen minutieux et à une réglementation de la part des régulateurs de données, à moins qu'elles ne puissent prouver l'efficacité de la technologie.

Le commissaire britannique à l’information met en garde : les outils d’IA d’analyse des sentiments ne sont pas des options fiables et efficaces

La technologie d'analyse des émotions utilise de nombreux points de données biométriques, notamment le suivi du regard, l'analyse des émotions, les mouvements du visage, l'analyse de la démarche, le rythme cardiaque, les expressions faciales et les niveaux d'humidité de la peau, etc., et tente d'utiliser ces données pour déterminer ou prédire un certaine émotion. L'état émotionnel d'une personne.

Stephen Bonner, commissaire adjoint à l'information au sein du commissaire à l'information du Royaume-Uni, a déclaré que le problème est qu'il n'y a aucune preuve que cette méthode fonctionne réellement, et qu'il existe de nombreuses preuves qu'elle n'est pas fiable. Si les entreprises s’appuient sur les résultats d’enquêtes utilisant des outils d’IA d’analyse des sentiments, cela est plus susceptible de conduire à des résultats erronés pouvant nuire.

Il a averti que si une entreprise utilise des outils d'IA d'analyse des sentiments dans son travail, le seuil d'enquête sera "très bas".

« Parfois, lorsque de nouvelles technologies sont promues, les gens pensent : « Attendons de voir et comprenons les deux parties », et avec d'autres technologies biométriques légitimes, nous le faisons absolument. Mais dans le cas de l'IA d'analyse des sentiments, il n'y a pas de raison. preuve légitime que cette technologie fonctionne. Nous surveillerons cette question de très près et sommes disposés à prendre des mesures énergiques plus rapidement. Il incombe à ceux qui choisissent d'en profiter de prouver à tout le monde que cela en vaut la peine. la culpabilité ne semble avoir aucun fondement scientifique", a-t-il ajouté.

L'IA d'analyse émotionnelle peut être utile dans certaines situations

Mais Bonner a déclaré qu'il existe des exemples où la technologie a été mise en œuvre ou suggérée comme cas d'utilisation, notamment en fournissant des outils portables pour surveiller les émotions et l'état de santé des travailleurs, et utiliser divers points de données pour enregistrer et prédire les problèmes de santé potentiels.

Cependant, les algorithmes immatures de détection des signaux émotionnels entraîneront un risque de biais systémique, d’inexactitude et de discrimination. La technologie repose sur la collecte, le stockage et le traitement de grandes quantités de données personnelles, y compris des réponses comportementales ou émotionnelles subconscientes. Cette utilisation des données comporte des risques bien plus élevés que les technologies biométriques traditionnelles utilisées pour vérifier ou identifier un individu.

Il convient de noter que le commissaire britannique à l'information n'a pas interdit l'utilisation de ce type de technologie, mais a seulement émis un avertissement selon lequel les entreprises qui mettent en œuvre une telle technologie seront scrutées de près en raison des risques encourus. Tant qu'il y a une déclaration claire, les utilisateurs peuvent l'utiliser comme gadget ou comme outil de divertissement.

Bonner a déclaré : « Il y a une certaine différence entre les mesures biométriques et la déduction de l’intention du résultat. Je pense qu’il est logique que le niveau de stress d’une personne puisse être détecté par sa voix. Mais à ce stade, ce serait un pas de trop. traitez-le de menteur. Nous n'interdirons pas l'utilisation de l'IA pour déterminer qui a l'air dérangé, mais si c'est simplement que certaines personnes sont dérangées et ne déduisent pas qu'elles tentent de commettre une fraude grâce à leurs données biométriques, alors c'est un problème. est faux. »

Impact intersectoriel de la biométrie

La biométrie devrait avoir un impact majeur sur divers secteurs industriels, depuis les sociétés de services financiers vérifiant l’identité humaine via la reconnaissance faciale jusqu’à l’utilisation de la reconnaissance vocale pour remplacer les mots de passe pour accéder aux services. .

Le commissaire à l'information du Royaume-Uni travaille avec l'Institut Ada Lovelace et le British Youth Council pour développer de nouvelles directives biométriques. Les orientations seront « centrées sur les personnes » et devraient être publiées au printemps prochain.

Le Dr Mhairi Aitken, chercheur en éthique à l'Institut Alan Turing, a salué l'avertissement du commissaire à l'information du Royaume-Uni, mais a noté qu'il était également important d'examiner le développement de ces systèmes et de garantir que les développeurs adoptent une approche éthique et créent et utilisent des outils là où cela est nécessaire.

Elle a déclaré : « Une approche éthique du développement de technologies ou de nouvelles applications doit commencer par ceux qui, dans la communauté, peuvent être affectés et les impliquer dans le processus pour voir si cela est réellement approprié dans le contexte dans lequel ce processus est déployé. Nous avons la possibilité d'être conscients de tout préjudice qui n'aurait peut-être pas été anticipé. "

L'IA de détection d'émotions présente un risque réel de préjudice

Le Dr Aitken a déclaré que le préjudice que ce type de modèle d'IA pourrait causer est énorme. surtout pour ceux qui en sont concernés. À quelqu'un qui peut ne pas rentrer dans le modèle développé lors de la construction d'un modèle prédictif. Elle a ajouté : "C'est un domaine très complexe pour commencer à réfléchir à la façon dont nous pouvons automatiser des choses comme celle-ci et être capables de prendre en compte les différences culturelles et émotionnelles."

Le Dr Aitken a souligné qu'il est difficile pour les systèmes d'IA de le faire. déterminer la situation dans différents environnements. Quel type de réponse émotionnelle est approprié ? « La façon dont nous exprimons nos émotions est très différente, selon la personne avec laquelle nous sommes et l'environnement dans lequel nous nous trouvons. Il est également nécessaire de déterminer si ces systèmes d'IA peuvent le faire. prendre en compte adéquatement la façon dont les gens expriment leurs émotions. »

Bonner a déclaré que les inconvénients liés à l'utilisation d'outils d'IA émotionnelle dans le divertissement sont minimes, mais le Dr Aitken a averti que ce cas d'utilisation comporte ses propres risques, notamment ceux qui s'habituent à la technologie et pensent qu'elle fonctionne réellement. "Si utilisé, à moins qu'il soit explicitement étiqueté à des fins de divertissement."

Bonner a ajouté qu'en matière d'IA émotionnelle, le problème est qu'il y a tellement de points de données et de différences entre chaque personne qu'il est difficile de développer un modèle idéal. Cela a été démontré dans plusieurs articles de recherche sur cette technologie. "Si quelqu'un disait : "Nous avons résolu le problème et pouvons faire des prédictions précises", alors il pourrait faire des merveilles, mais je ne pense pas que cela se produira."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer