Maison  >  Article  >  Périphériques technologiques  >  Pourquoi la conception de l'IA doit donner la priorité à la confidentialité des données

Pourquoi la conception de l'IA doit donner la priorité à la confidentialité des données

WBOY
WBOYavant
2023-04-12 21:13:121679parcourir
  • L'intelligence artificielle fait partie intégrante du développement des soins de santé, de la technologie et d'autres domaines, mais des inquiétudes subsistent quant à la manière dont la confidentialité des données sera réglementée.
  • La confidentialité des données est essentielle pour gagner la confiance du public dans les progrès technologiques.

La confidentialité des données est souvent associée aux modèles d'intelligence artificielle (IA) basés sur les données des consommateurs. Les utilisateurs se méfient naturellement des technologies automatisées qui capturent et utilisent leurs données, qui peuvent inclure des informations sensibles. Étant donné que les modèles d’IA

s’appuient sur la qualité des données pour fournir des résultats significatifs, leur existence dépend de la protection de la vie privée qui fait partie intégrante de leur conception.

De bonnes pratiques de confidentialité et de gestion des données ne sont pas seulement un moyen d'apaiser les craintes et les inquiétudes des clients, mais ont beaucoup à voir avec les valeurs organisationnelles fondamentales, les processus commerciaux et la gestion de la sécurité d'une entreprise. Les questions liées à la vie privée ont fait l’objet de nombreuses recherches et ont fait l’objet d’une large publicité, et les données d’enquêtes sur la perception de la vie privée montrent que la protection de la vie privée est une question importante pour les consommateurs.

Il est essentiel d’aborder ces problèmes dans leur contexte, et pour les entreprises utilisant l’IA destinée aux consommateurs, il existe plusieurs méthodes et techniques qui peuvent aider à répondre aux problèmes de confidentialité généralement associés à l’IA.

Certains produits et services nécessitent des données, mais ils n'ont pas besoin d'envahir la vie privée de qui que ce soit.

Les entreprises utilisant l'intelligence artificielle sont déjà confrontées aux doutes du public en matière de confidentialité. Selon une enquête réalisée en 2020 par l'Organisation européenne des consommateurs, 45 à 60 % des Européens conviennent que l'IA

entraînera davantage d'utilisation abusive des données personnelles.

Il existe de nombreux services et produits en ligne populaires qui s'appuient sur de grands ensembles de données pour apprendre et améliorer leurs algorithmes d'IA

. Certaines des données contenues dans ces ensembles de données peuvent être considérées comme privées, même pour l'utilisateur le moins soucieux de sa vie privée. Les flux de données provenant du Web, des pages de réseaux sociaux, des téléphones mobiles et d'autres appareils augmentent la quantité d'informations que les entreprises utilisent pour former les systèmes d'apprentissage automatique. La protection de la vie privée devient un problème de politique publique dans le monde entier en raison de la surutilisation et de la mauvaise gestion des données personnelles par certaines entreprises.

La plupart des données sensibles que nous collectons visent à améliorer les processus basés sur l'IA. Une grande partie des données analysées repose également sur l’adoption de l’apprentissage automatique, car des algorithmes complexes sont nécessaires pour prendre des décisions en temps réel sur la base de ces ensembles de données. Les algorithmes de recherche, les assistants vocaux et les moteurs de recommandation ne sont que quelques-unes des solutions

IA qui exploitent de vastes ensembles de données basés sur des données utilisateur réelles.

Les bases de données massives peuvent contenir un large éventail de données, et l'un des problèmes les plus urgents est que ces données peuvent être personnellement identifiables et sensibles. En fait, apprendre à un algorithme à prendre des décisions ne nécessite pas de savoir à qui se rapportent les données. Les entreprises à l'origine de tels produits devraient donc se concentrer sur la privatisation de leurs ensembles de données avec peu de moyens d'identifier les utilisateurs dans les données sources, et développer des mesures pour supprimer les cas extrêmes de leurs algorithmes afin d'éviter l'ingénierie inverse et l'identification.

La relation entre confidentialité des données et intelligence artificielle est très délicate. Même si certains algorithmes nécessitent inévitablement des données privées, il existe des moyens de les utiliser de manière plus sécurisée et non intrusive. Les méthodes suivantes ne sont que quelques-unes des façons dont les entreprises travaillant avec des données privées peuvent faire partie de la solution.

Conception d'IA en gardant à l'esprit la confidentialité

Nous avons discuté du problème de l'ingénierie inverse, où des acteurs malveillants découvrent des vulnérabilités dans un modèle d'IA

et identifient des informations potentiellement critiques à partir de la sortie du modèle. L’ingénierie inverse est la raison pour laquelle la modification et l’amélioration des bases de données et des données d’apprentissage face à ce défi sont essentielles à l’utilisation de l’IA.

Par exemple, combiner des ensembles de données contradictoires dans un processus d'apprentissage automatique (apprentissage contradictoire) est une bonne option pour distinguer les défauts et les biais dans la sortie d'un algorithme d'IA

. Il existe également des options permettant d’utiliser des ensembles de données synthétiques qui n’utilisent pas de données personnelles réelles, mais des questions subsistent quant à leur efficacité.

Healthcare est un pionnier en matière d'intelligence artificielle et de gouvernance de la confidentialité des données, en particulier lorsqu'il s'agit de données privées sensibles. Elle fait également un gros travail sur le consentement, qu'il s'agisse des actes médicaux ou du traitement de leurs données : les enjeux sont importants et le respect est imposé par la loi.

Pour la conception globale des produits et algorithmes d'IA, le découplage des données des utilisateurs via l'anonymisation et l'agrégation est essentiel pour toute entreprise qui utilise les données des utilisateurs pour entraîner ses modèles d'IA.

Il existe de nombreuses considérations pour renforcer la protection de la vie privée des entreprises d'IA :

  • La confidentialité au cœur : placez la protection de la vie privée sur le radar des développeurs et trouvez des moyens de renforcer efficacement la sécurité.
  • Anonymisez et agrégez les ensembles de données, en supprimant tous les identifiants personnels et les points de données uniques.
  • Contrôlez étroitement qui dans l'entreprise a accès à des ensembles de données spécifiques et auditez continuellement la manière dont ces données sont accessibles, car cela a été la raison de certaines violations de données dans le passé.
  • Plus de données n'est pas toujours la meilleure solution. Testez votre algorithme avec un minimum de données pour comprendre la quantité minimale de données que vous devez collecter et traiter pour rendre votre cas d'utilisation réalisable.
  • Doit fournir un moyen simplifié d'éliminer les données personnelles à la demande de l'utilisateur. Les entreprises qui pseudo-anonymisent uniquement les données des utilisateurs doivent continuellement recycler leurs modèles en utilisant les données les plus récentes.
  • Exploitez de puissantes stratégies de désidentification, telles que des ensembles de données agrégées et synthétiques avec des identifiants entièrement anonymisés et irréversibles pour la formation des algorithmes, l'audit, l'assurance qualité, etc.
  • Protégez l’autonomie et la confidentialité des utilisateurs en repensant la manière dont les informations critiques sont obtenues et utilisées auprès de tiers – examinez les sources de données et n’utilisez que celles qui collectent des données avec le consentement explicite et éclairé de l’utilisateur.
  • Considérez les risques : est-il possible qu'une attaque puisse compromettre la confidentialité des utilisateurs à partir de la sortie de votre système d'IA ?

Quel est l'avenir de la confidentialité des données et de l'IA ? pour entraîner les algorithmes d'IA Sans données personnelles, certains services et produits en ligne de premier plan ne peuvent pas fonctionner. Il existe cependant de nombreuses façons d’améliorer l’acquisition, la gestion et l’utilisation des données, notamment les algorithmes eux-mêmes et la gestion globale des données. L’IA respectueuse de la vie privée nécessite des entreprises respectueuses de la vie privée.

L'auteur de cet article : Einaras von Gravrock, PDG et fondatrice de CUJO AI

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer