Maison > Article > Périphériques technologiques > L’éveil de l’autodéfense numérique La technologie de la confidentialité va-t-elle tuer l’intelligence artificielle ?
Le développement et l'application de l'intelligence artificielle nécessitent l'utilisation de grandes quantités de données. Plus vous fournissez de données aux algorithmes d’apprentissage automatique, mieux ils peuvent découvrir des modèles, prendre des décisions, prédire les comportements, personnaliser le contenu, diagnostiquer des problèmes médicaux, obtenir des renseignements et détecter les cybermenaces et la fraude.
En fait, l'intelligence artificielle et les données ont atteint une telle relation : « Les algorithmes sans données sont aveugles, et les données sans algorithmes sont stupides. » Mais l'adoption de la technologie de l'intelligence artificielle peut comporter des risques, et tout le monde ne veut pas partager ses propres informations ou données. , du moins dans le cadre des règles actuelles d’engagement numérique. Par conséquent, certaines mesures d’autodéfense numérique sont nécessaires.
Certaines personnes coupent complètement tout contact avec le monde extérieur et deviennent des ermites numériques ; d'autres jouent la sécurité et utilisent l'autodéfense numérique, une technologie renforçant la vie privée (PET), pour faire face aux fuites numériques.
Les personnes qui utilisent l'autodéfense numérique ne font pas confiance aux avis de confidentialité des sites Web et utilisent plutôt des outils tels que l'extension du niveau de confidentialité pour les vérifier. Au lieu de communiquer leurs préférences, ils utilisent des outils spécialisés, tels que des moteurs de recherche et des navigateurs préservant la confidentialité alimentés par l’IA, pour effectuer des recherches anonymes. Ces outils empêchent les trackers invisibles de suivre les pages et les aident à explorer le monde, à collaborer et à stocker des données de nouvelles manières.
Les gens peuvent adopter certains outils pour gérer la collecte et l'analyse de la vie privée par des algorithmes d'intelligence artificielle, ce que l'on appelle l'autodéfense numérique, ou également l'autodéfense de surveillance.
Les utilisateurs qui adoptent l'autodéfense numérique en ont souvent assez du suivi omniprésent de leur comportement en ligne qui est même entré dans leur vie hors ligne. L’autodéfense numérique n’est pas un acte d’espionnage, mais une autoprotection de la vie privée.
Ce comportement a commencé avec le programme de surveillance complet du gouvernement américain révélé par l'ancien agent américain Edward Snowden en 2013. Ce programme a donné à l'Agence de sécurité nationale des États-Unis un accès sans précédent aux communications et aux informations des gens, notamment celles d'Apple, Google, Skype et voler des e-mails, des photos. , vidéos, discussions en temps réel et autres informations provenant des serveurs de géants de la technologie tels que Facebook.
Des tactiques intrusives similaires de l'agence de renseignement britannique GCHQ ont également été révélées, ce qui a déclenché une plus grande prise de conscience de la sécurité de la vie privée et a modifié la trajectoire de développement des réglementations européennes en matière de protection des données, incitant les réglementations à être plus centrées sur le consommateur et la culture de la vie privée. telles que les réglementations RGPD.
Les géants de la technologie se démènent pour prouver leurs informations d'identification en matière de confidentialité, faisant du cryptage la valeur par défaut et déclarant la confidentialité des utilisateurs une priorité. Ils se positionnent comme des gardiens de données fiables auxquels les consommateurs peuvent faire confiance sans avoir à se défendre numériquement.
Mais le scandale des violations de données de Cambridge Analytica en 2018 a révélé quelque chose de potentiellement plus inquiétant que la surveillance gouvernementale : le « capitalisme de surveillance ». Poussées par l'adtech, les identités numériques des gens sont récupérées, conditionnées, analysées, profilées, mises aux enchères, échangées et militarisées par des trackers en ligne et des données inappropriées pour fournir un « marketing de précision » visant à influencer le comportement de consommation des gens.
Il s’avère qu’Amazon connaît peut-être les gens mieux qu’eux-mêmes. Facebook peut prédire ce que les gens diront ensuite sur les réseaux sociaux, et ce qui est encore plus effrayant, c'est qu'il peut prédire les tendances de vote des électeurs. Le scandale de Cambridge a révélé comment le « micro-ciblage » de la technologie publicitaire était combiné à de fausses nouvelles et à des tactiques de guerre psychologique pour influencer les décisions des électeurs, ce qui a conduit Facebook Inc à interdire les publicités politiques de sa plateforme plus tôt cette année.
Le nouveau chouchou de la technologie publicitaire est le marketing géolocalisé, qui suit et cartographie le comportement des utilisateurs, les suit dans le monde hors ligne et déduit des détails intimes en combinant les données des applications et les données provenant d'autres sources qu'ils collectent et compilent pour créer de riches données personnelles et segmenter les utilisateurs par race, personnalité, situation financière, âge, habitudes alimentaires, antécédents de toxicomanie, affiliation politique, réseaux sociaux, etc. sont ensuite colportés sur le dark web sur des plateformes d'enchères en temps réel, ce qui aura potentiellement des effets négatifs. .
Et la technologie publicitaire qui collecte des données personnelles n'est pas toujours exacte, et les décisions de ciblage peuvent être offensantes.
Par exemple, aux États-Unis, les publicités sur les cautions ciblent les utilisateurs portant des noms afro-américains, et les grandes marques comme Pepsi sont promues sur des sites Web extrêmement radicaux. Une utilisatrice des réseaux sociaux qui a déclaré qu’elle était constamment bombardée de publicités parentales pendant sa grossesse et sa fausse couche a publiquement appelé les géants de la technologie à corriger leur algorithme, affirmant que « l’algorithme était suffisamment intelligent pour savoir que j’étais enceinte et après ma fausse couche, il m’a envoyé un message. les publicités des hôpitaux, c'est effrayant »
Le marketing de précision est efficace mais peut aussi être nocif car il ne fonctionne pas vraiment. L'anthropologue Tricia Wang souligne qu'il s'agit là d'une marchandisation des relations humaines au détriment de la compréhension du client. Elle a déclaré que 70 % des directeurs marketing estiment que la technologie publicitaire ne fournit pas d’informations précieuses sur les clients. Les mégadonnées donnent une vue d’ensemble (une image incomplète et inexacte) mais manquent de récit humain.
Ironiquement, la technologie publicitaire risque d’effacer l’orientation client du marketing car elle ne peut pas voir les « 0 et 1 humains ».
Pernille Tranberg, co-fondatrice de Data Ethics, aide les consommateurs et les entreprises à trouver des alternatives gagnant-gagnant à la surveillance. Elle enseigne aux consommateurs les bases de l'autodéfense numérique afin qu'ils puissent protéger leurs données à l'aide d'outils tels que Digi.Me et Tapx et les échanger contre une juste valeur marchande selon leurs propres conditions.
Les outils de site Web comme Blockthrough bloquent les trackers tiers inconnus ou dangereux tout en autorisant les trackers respectueux de la vie privée. Brave aide les entreprises à générer davantage de revenus de navigation en récompensant les visites afin que les visiteurs puissent être payés pour visionner des publicités respectueuses de la vie privée. Les fournisseurs d'analyses comme Matomo fournissent aux propriétaires de sites Web les données riches dont ils disposent, ainsi que les contrôles de confidentialité dont ils peuvent profiter.
Existe-t-il une relation conflictuelle entre les consommateurs et les annonceurs ? Oui, mais pas entièrement. Les annonceurs doivent respecter les choix des utilisateurs et ne pas désactiver les bloqueurs de publicités ni inciter les utilisateurs à accepter des interfaces trompeuses et des modèles de boîtes noires. Ils doivent travailler ensemble, et non les uns contre les autres, et les annonceurs doivent comprendre leurs clients, sinon ils finiront par échouer.
En résumé, si les gens n’y font pas attention, les technologies publicitaires qui utilisent l’intelligence artificielle pour analyser les données peuvent envahir leur vie privée. C’est pour cette raison que les gens veulent reprendre leur agence. Ils en ont assez d’être espionnés et surveillent à leur tour le comportement des annonceurs.
Les données montrent que 1,7 milliard de personnes utilisent désormais des outils de blocage des publicités pour bloquer les publicités, ce qui constitue « le plus grand boycott de l'histoire de l'humanité ». À mesure que des entreprises comme Apple et Google s’éloignent des cookies tiers, les annonceurs devront trouver de nouveaux moyens d’exploiter les données des consommateurs tout en préservant la confiance.
La sécurité de la vie privée rend l'intelligence artificielle humaine et peut sauver la technologie publicitaire. Par exemple, les outils respectueux de la vie privée uniformisent les règles du jeu et peuvent encourager les gens à partager davantage d’informations. Les annonceurs analyseront les données anonymisées ou cryptées et les reprogrammeront dans des systèmes d’intelligence artificielle pour débloquer de fausses informations sur les clients que la technologie publicitaire ne peut pas fournir.
En bref, la conscience des gens à l’autodéfense numérique s’éveille, et la méthode traditionnelle d’intelligence artificielle pour abuser des données doit évoluer !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!