Maison >Périphériques technologiques >IA >La confidentialité d'Apple AI est prometteuse, mais je pense qu'il y a un problème

La confidentialité d'Apple AI est prometteuse, mais je pense qu'il y a un problème

Jennifer Aniston
Jennifer Anistonoriginal
2024-12-13 16:14:50978parcourir

Liens rapides

Résumé

  • Les fonctionnalités d'IA d'Apple promettent la confidentialité avec le traitement sur l'appareil et le cloud privé Calculez, mais l'intégration de ChatGPT soulève des problèmes de confidentialité.
  • Apple Neural Engine gère efficacement l'apprentissage automatique, tandis que Private Cloud Compute garantit un traitement de l'IA sécurisé et transparent.
  • La politique de confidentialité ChatGPT d'OpenAI est moins généreuse que celle d'Apple, ce qui soulève des inquiétudes concernant la collecte et le partage de données lors de l'utilisation des fonctionnalités de ChatGPT.

Apple a dévoilé une vague de fonctionnalités d'IA lors de la WWDC24, promettant des outils puissants pour les iPhones, iPads et Mac. Mais Apple peut-il vraiment garantir la confidentialité dans un monde d’IA ? Leurs solutions de traitement sur appareil et de cloud privé sont impressionnantes, mais l'intégration de ChatGPT crée une faille potentielle.

Comment Apple envisage de rendre son IA privée

Apple a révélé de nombreuses fonctionnalités d'IA à la WWDC24, et elles seront disponibles sur tous les Mac, iPhone et iPad pris en charge plus tard en 2024. Cependant, l'IA et la confidentialité ne vont pas souvent de pair. Quoi qu’il en soit, Apple a pris des engagements audacieux mais raisonnables pour garantir la confidentialité.

Traitement sur l'appareil

En règle générale, les opérations d’IA nécessitent une puissance de traitement importante, une ressource qui manque à la plupart des téléphones et ordinateurs portables standards. Cependant, avec l'avènement du silicium Apple, tous les Mac, iPhone et iPad équipés de la famille de puces M ou A17 Pro (et versions ultérieures) seront capables d'exécuter localement la plupart des modèles d'IA générative d'Apple, y compris le modèle linguistique d'Apple.

Apple développe depuis un certain temps déjà son Apple Neural Engine (ANE) exclusif pour gérer l'apprentissage automatique et le traitement de l'IA. Au fil des années, il est devenu plus efficace dans le traitement des requêtes IA sans les laisser entièrement au CPU ou au GPU. La plupart des modèles d’IA d’Apple fonctionneront véritablement hors ligne et garantiront la confidentialité.

Cloud Compute privé (PCC)

Cependant, votre appareil Apple peut ne pas être en mesure de gérer certaines requêtes IA localement. Bien qu'Apple l'ait déclaré lors de la WWDC24, il n'a pas précisé ni donné d'exemples de demandes qui seraient trop lourdes pour les processeurs hors ligne locaux. Les exemples ne relèvent que de la spéculation, mais Apple parle de « requêtes complexes » qui autrement enliseraient votre appareil.

La solution d'Apple est Private Cloud Compute (PCC), un processeur d'IA basé sur le cloud et construit avec du silicium Apple personnalisé. Il met fortement l'accent sur la confidentialité et la transparence et est livré avec son propre Secure Enclave, tout comme celui qui protège votre appareil Apple. Lorsque vous utilisez PCC, vos requêtes IA sont immédiatement supprimées après traitement et personne, y compris Apple, ne peut accéder aux données via une porte dérobée. Pour renforcer davantage la confiance, Apple offre une transparence vérifiable, permettant à des chercheurs en sécurité tiers d'examiner les logiciels exécutés sur les nœuds PCC.

ChatGPT pose le principal risque en matière de confidentialité

Le traitement sur l'appareil et le PCC sont tous deux d'excellents principes de confidentialité, mais il existe toujours un aspect d'Apple Intelligence qui est discutable : ChatGPT. Pour ceux qui ne le savent pas, Apple prévoit d’intégrer ChatGPT dans son expérience IA, y compris Siri. Ces applications d'IA exploiteront la base de connaissances plus large de ChatGPT et emprunteront ses capacités de traitement d'images.

Pour être tout à fait honnête, Apple a pris certaines mesures pour garantir votre confidentialité lorsque vous utilisez ChatGPT. Par exemple, lorsque vous faites une demande à OpenAI, votre appareil masquera votre adresse IP et aucun profil stockant des informations vous concernant ne sera créé. De plus, toutes les demandes ChatGPT nécessitent une autorisation expresse de votre part au préalable, et vous devez accorder cette autorisation à chaque fois.

Malgré les affirmations d'Elon Musk du contraire, OpenAI vous ne pouvez pas accéder à toutes les données de votre appareil ; ChatGPT ne peut traiter que les informations présentées dans ses invites.

Cependant, les fonctionnalités les plus puissantes de ChatGPT se trouvent derrière son paywall d'abonnement, et vous devrez vous connecter à votre compte premium pour en profiter. Cependant, cela vous soumettra à la politique de confidentialité d’OpenAI, qui n’est pas aussi généreuse que celle d’Apple, c’est un euphémisme. La politique de confidentialité d'OpenAI lui permet de collecter des informations personnelles, d'enregistrer l'utilisation, de former des modèles sur des informations personnelles, de partager vos données avec des tiers et bien d'autres implications préoccupantes. Vous pouvez le consulter sur le site Web d'OpenAI.

Bien qu'il existe des moyens de désactiver certaines violations de la vie privée de ChatGPT, la plupart des solutions sont détournées et OpenAI peut facilement les contourner. Il semble également qu’éviter ChatGPT sur Apple Intelligence (notamment sur macOS) sera difficile, voire impossible. Selon la façon dont vous utilisez Siri ou Compose, vous pourriez vous retrouver fortement dépendant de ChatGPT, laissant une grande partie de vos données entre les mains d'OpenAI.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn