Maison >Périphériques technologiques >IA >Comment l'intelligence artificielle change-t-elle la donne en matière de confidentialité des données ?

Comment l'intelligence artificielle change-t-elle la donne en matière de confidentialité des données ?

王林
王林avant
2023-04-14 12:58:061084parcourir

Des recherches récentes montrent que les modèles d'apprentissage profond basés sur l'IA sont capables de déterminer l'origine ethnique d'un patient sur la base d'images radiologiques telles que des radiographies pulmonaires avec une plus grande précision que les experts en anthropologie. Sandeep Sharma, data scientist en chef chez Capgemini Consulting, a souligné que lorsque l'IA est appliquée à la collecte et à l'analyse de données personnelles, il existe un risque énorme d'invasion de la vie privée. Dans le même temps, cette menace est exacerbée par le manque de compréhension de la vie privée au sein des organisations utilisant l’IA.

Comment l'intelligence artificielle change-t-elle la donne en matière de confidentialité des données ?

De manière générale, les applications actuelles de l'IA impliquant des informations personnelles dans les entreprises présentent plusieurs problèmes importants : premièrement, l'utilisation des données à des fins autres que la collecte, deuxièmement, la collecte d'informations personnelles qui n'entrent pas dans le cadre de la collecte de données ; ; troisièmement, consiste à stocker les données plus longtemps que nécessaire. Ceux-ci peuvent enfreindre les réglementations sur la confidentialité des données, telles que le Règlement général sur la protection des données (RGPD) de l'Union européenne.

Les applications d'IA exacerbent le risque d'exposition à la confidentialité des données

Les risques posés par les systèmes basés sur l'IA impliquent de nombreux aspects. Par exemple, Tom Whittaker, associé principal de l’équipe technologique du cabinet d’avocats britannique Burges Salmon, estime que les biais potentiels de l’IA doivent être pris en compte. Les systèmes d’IA s’appuient sur des données, et lorsqu’il s’agit de données personnelles, les données ou la manière dont le modèle est entraîné peuvent créer par inadvertance des biais.

Dans le même temps, le système d'IA peut également être endommagé et des informations personnelles peuvent également être divulguées. Whittaker a noté que cela s’explique en partie par le fait que les systèmes d’IA s’appuient sur de vastes ensembles de données, ce qui pourrait en faire des cibles privilégiées pour les cyberattaques. Les données produites par le système d'IA peuvent exposer des informations personnelles directement ou lorsqu'elles sont combinées avec d'autres informations.

À mesure que les systèmes d’IA sont utilisés dans de plus en plus d’applications, la société est également exposée à des risques de plus en plus omniprésents. Les cotes de crédit, l’analyse des risques criminels et les décisions en matière d’immigration en sont quelques exemples. Si l’IA ou la manière dont elle est utilisée est défectueuse, les gens risquent de subir de plus grandes violations de la vie privée qu’ils ne le feraient autrement. «

L'IA peut également avoir un impact positif sur la confidentialité des données

Cependant, certains experts soulignent également que l'IA peut avoir un impact positif sur la confidentialité. Elle peut être utilisée comme une forme de technologie d'amélioration de la confidentialité (PET) pour. aider les organisations à se conformer aux obligations dès la conception en matière de protection des données.

Whittaker explique : « L'IA peut être utilisée pour créer des données synthétiques qui reproduisent les modèles et les propriétés statistiques des données personnelles. L’IA peut également minimiser le risque de violation de la vie privée en chiffrant les données personnelles, en réduisant les erreurs humaines et en détectant les incidents potentiels de cybersécurité. »

Certains gouvernements ont vu le bon côté de l'IA. Par exemple, Ott Velsberg, responsable des données au ministère estonien des Affaires économiques et des Communications, a déclaré que l'IA joue un rôle clé dans diverses industries et que l'objectif du gouvernement estonien est d'y parvenir. IA d'ici 2030. Largement utilisée.

Afin de garantir le respect des réglementations sur la protection des données lors de leur application, l'Estonie a développé un service qui permet aux personnes de partager des données détenues par le gouvernement avec des parties prenantes externes. Le traitement des données personnelles peut être consulté sur le portail du gouvernement.

Le respect de la confidentialité est la clé de la mise en œuvre de l'IA

L'IA est actuellement réglementée par des réglementations, notamment le RGPD, mais d'autres réglementations en matière de confidentialité seront introduites à l'avenir, a indiqué l'UE. les protections juridiques de la vie privée liées à l'IA les plus strictes

Whittaker a souligné que l'UE prévoit également d'introduire des réglementations plus spécifiques à l'IA visant à interdire à certains systèmes d'IA d'abuser des données et à imposer des obligations à tout système à haut risque sur la manière dont les données sont stockées. et utilisées. Ces réglementations concernent ceux qui déploient des systèmes d'IA sur le marché de l'UE et affecteront les entreprises qui vendent ou déploient des solutions d'IA dans l'UE.

À cette fin, les dirigeants d'entreprise tentent de gérer les risques liés à l'IA. des politiques réglementaires actuelles et prévues en matière d'IA. Le non-respect de ces réglementations peut entraîner de graves conséquences. Des rapports indiquent que les violations des obligations à haut risque en vertu du projet de loi sur l'IA de l'UE peuvent entraîner des amendes allant jusqu'à 20 millions d'euros ou jusqu'à 4 par an. chiffre d'affaires. % de pénalité.

Premièrement, pour les entreprises utilisant des systèmes d'IA, la transparence dans la manière dont les données sont utilisées est essentielle. Si les utilisateurs ne savent pas qu'ils sont affectés par les décisions de l'IA, ils ne pourront pas les comprendre ou les remettre en question. ont le droit de connaître l'utilisation des données et d'utiliser les données de manière raisonnable et légale. Encore une fois, les organisations doivent veiller à ce que les algorithmes d'IA eux-mêmes et les données sur lesquels ils s'appuient soient soigneusement conçus, développés et gérés pour éviter des conséquences négatives inutiles. , de bonnes mesures de sécurité des données sont essentielles dans les applications d'IA. Les organisations ne collectent pas de données inutiles et veillent à ce que les informations soient supprimées après un certain temps, tout en s'assurant que l'accès aux données est correctement restreint et que de bonnes pratiques de sécurité sont en place.

Pour résumer, l'IA est sans aucun doute une technologie révolutionnaire qui apparaîtra dans des applications commerciales généralisées, mais elle doit être gérée de manière responsable pour éviter les violations de la vie privée, et les dirigeants d'entreprise doivent réfléchir plus attentivement à la manière dont l'IA est utilisée et abusée. , exercez l'impact positif de l'IA et évitez les effets négatifs de l'IA

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer