Maison > Article > Périphériques technologiques > Le Gala de la Fête du Printemps de la Pomme est copieux et copieux ! Ce que le marché veut entendre, « l'IA, la RM et le cerveau-ordinateur » sont tous disponibles en même temps ?
Lors de la conférence WWDC, qui a attiré le plus d'attention depuis plus d'une décennie, Apple a explosé sur la scène avec une chose de plus, comme l'attendait le marché, en lançant sa nouvelle plate-forme informatique après les Mac, iPhone, iPad et Watch. —— Casque de réalité mixte Vision Pro.
À en juger par la démonstration sur site lors de la conférence de presse et les évaluations des essais médiatiques qui ont suivi, en tant que premier terminal matériel entièrement développé sous la direction de Cook, Vision Pro a en effet répondu aux attentes, intégrant la conception industrielle et l'ingénierie d'Apple accumulées au fil des ans. plus de dix ans. Grâce à ses capacités intégrées, il peut être qualifié de « l'appareil électronique grand public le plus avancé au monde » et montre également le potentiel que Cook espère devenir le prochain iPhone.
Cependant, malgré la performance époustouflante du Vision Pro lors de la conférence de presse, le cours de l'action Apple a terminé en légère baisse aux États-Unis du jour au lendemain.
Ming-Chi Kuo, analyste bien connu d'Apple, estime que cela est principalement dû au prix élevé du Vision Pro (jusqu'à 3 499 $ US, incapable d'atteindre le marché de masse) et à la date de sortie lointaine (sortie pour la première fois sur le marché américain). début de l'année prochaine) Ce n'est pas propice à l'investissement à court terme Le sentiment est , et lors de la séance de démonstration, n'a pas clairement démontré la nécessité d'une utilisation quotidienne.
Pour faire simple, bien que le visiocasque soit cool et ait un côté science-fiction, il n'a pas la même nécessité qu'un téléphone portable ou un ordinateur. Wall Street Insights a mentionné dans un article précédent que le marché se demandait généralement pourquoi les consommateurs devraient transférer des tâches faciles à réaliser sur des appareils traditionnels vers un visiocasque qui coûte jusqu'à 3 000 dollars et rend les interactions plus lourdes.
Malgré cela, Apple et Cook sont également les gagnants incontestables. À travers ce « Gala de la Fête du Printemps de la Technologie » qui a duré plus de 2 heures et était plein de contenu, Apple a non seulement démontré sa force inébranlable dans la recherche et le développement de logiciels et de matériel, mais a également démontré sa force inébranlable dans les nouveaux domaines technologiques tels que l'IA et interfaces cerveau-ordinateur. Montrez vos muscles de manière discrète et pragmatique.Vision Pro : Quel métaverse ? N'y touchez pas !
À en juger par la démonstration lors de la conférence de presse, le produit Vision Pro est effectivement plein de science-fiction.
En termes d'interaction, cet visiocasque qui ressemble à des lunettes de ski ne peut être actionné que par les yeux, la voix et les gestes. Il n'y a pas de poignée externe encombrante ni de bracelet intelligent comme on le pensait auparavant sur le marché.
Après avoir mis le casque et l'avoir déverrouillé via Optic ID (iris ID), vous pouvez vivre une scène similaire au film Iron Man :
Ce que vos yeux voient, c'est toujours le monde qui vous entoure, mais l'ensemble du système d'exploitation Vision apparaîtra devant vos yeux, y compris des centaines de milliers d'applications de l'écosystème d'Apple, ainsi que les logiciels Microsoft Office, les propres albums photo d'Apple. , et les mémos Attendez, regardez simplement naturellement et pincez avec deux doigts pour ouvrir l'application dont vous avez besoin.
En termes d'expérience de divertissement, il surpasse même les produits concurrents similaires. Lors de la démonstration en direct lors de la conférence de presse, Apple a démontré les capacités « d'informatique spatiale » de Vision Pro. Tournez simplement le bouton du casque pour agrandir à l'infini le film diffusé devant vous, permettant ainsi à l'environnement environnant de se fondre avec le contenu que vous regardez. Imaginez que dans un train à grande vitesse, dans un avion ou dans n'importe quelle pièce, vous puissiez disposer d'un cinéma privé à condition d'activer Vision Pro. Apple a également directement invité le PDG de Disney, Bob Iger, à la conférence de presse et a officiellement annoncé que le contenu Disney serait disponible sur Vision Pro.
Par ailleurs, Apple souligne également que Vision Pro n'est pas un appareil qui isole les utilisateurs de l'environnement. Lorsque quelqu'un s'approche de vous, la vitre avant du casque devient transparente, permettant aux autres de voir vos yeux et de communiquer avec vous ; lorsque vous vous engagez dans une expérience immersive, le casque apparaîtra opaque pour rappeler aux autres que vous ne pouvez pas les voir.
Comparé aux appareils VR purs comme la famille Meta Oculus, Vision Pro peut connecter de manière transparente les mondes réel et virtuel. Il mérite d'être le meilleur et le plus cher écran de tête aujourd'hui. Au moins en termes d'apparence et de convivialité, il surpasse de loin tous les appareils VR du marché ancrés dans le « Metaverse ».
Wall Street News a mentionné précédemment que Cook n'aime pas beaucoup le concept du Metaverse. Pendant toute la conférence de presse, Apple n'a pas mentionné une seule fois le « Metaverse ».
Après la conférence de presse de la WWDC, des internautes au bon cœur ont réalisé le tableau comparatif suivant :
Persona numérique de l'utilisateur Apple (Digital Persona) générée grâce à la technologie d'IA et à plus de dix caméras
Humain Virtuel Zuckerberg
Stratégie d'IA discrète et pragmatique
Bien que le nouveau casque de réalité mixte Vision Pro ait attiré l'attention de presque tout le monde, Apple ne parle pas des progrès technologiques en matière d'IA. Au lieu de cela, il « parle avec des faits » pour expliquer aux gens ce qui peut être fait. être atteints pour améliorer l’expérience utilisateur de manière plus réaliste.
En fait, En tant qu'entreprise de produits, Apple n'aime généralement pas parler de « l'intelligence artificielle » elle-même, mais préfère le terme plus académique « apprentissage automatique », ou parle simplement des changements qui peuvent être apportés par la mise en œuvre. de la technologie. Cela permet à Apple de se concentrer davantage sur le développement et l'affichage du produit lui-même, ainsi que sur la manière d'optimiser l'expérience utilisateur.
Plus précisément, lors de la conférence, Apple a annoncé une fonction améliorée de correction automatique des erreurs sur iPhone basée sur des programmes d'apprentissage automatique, qui utilise un modèle de langage de transformation, la même technologie qui prend en charge ChatGPT. Apple affirme qu'il apprendra même du texte et des modèles de frappe des utilisateurs pour optimiser l'expérience de l'utilisateur.
De plus, Apple a également amélioré l'expérience utilisateur des AirPods Pro, qui peuvent désactiver automatiquement la fonction de réduction du bruit lorsque les utilisateurs ont une conversation. Bien qu'Apple ne définisse pas cette amélioration comme une fonctionnalité « d'apprentissage automatique », il s'agit d'un problème difficile à résoudre et la solution est basée sur des modèles d'IA.
Une autre idée très pratique d'Apple est d'utiliser la nouvelle fonction Digital Persona pour scanner en 3D le visage et le corps de l'utilisateur. Les utilisateurs peuvent recréer virtuellement le visage et le corps tout en portant un casque Vision Pro pour une vidéoconférence avec d'autres personnes. Apple a également mentionné plusieurs autres nouvelles fonctionnalités qui profitent des progrès de l'entreprise dans les réseaux de neurones, comme la possibilité d'identifier les champs à remplir dans les PDF.
Le visiocasque cache-t-il la technologie d'interface cerveau-ordinateur ?
Mardi, Sterling Crispin, un internaute qui travaille dans le domaine AR/VR depuis dix ans et est chercheur en neurotechnologie AR chez Apple, a tweeté pour présenter le processus de recherche et de développement en neurotechnologie AR d'Apple.
Selon Crispin, son travail chez Apple consiste notamment à soutenir le développement de base de Vision Pro, l'expérience de pleine conscience et des recherches plus complexes en neurotechnologie. De manière générale, une grande partie de son travail consiste à détecter l’état mental des utilisateurs à l’aide de données provenant de leur corps et de leur cerveau lors d’expériences immersives.
Dans une expérience de réalité mixte ou de réalité virtuelle, le modèle d'IA tente de prédire si l'utilisateur est curieux, errant, effrayé, attentif, se souvenant d'expériences passées ou d'un autre état cognitif.
Ceux-ci peuvent être déduits grâce au suivi oculaire, à l'activité électrique du cerveau, aux battements et au rythme cardiaques, à l'activité musculaire, à la densité sanguine, à la tension artérielle, à la conductance cutanée et à d'autres mesures, permettant de prédire le comportement.
Selon la description du brevet d'Apple et l'introduction de Crispin, la technologie neuronale d'Apple peut prédire le comportement de l'utilisateur et ajuster l'environnement virtuel en fonction du statut de l'utilisateur.
Le résultat le plus intéressant est de prédire sur quoi les utilisateurs cliqueront avant de cliquer réellement. Les élèves des gens ont tendance à réagir avant de cliquer, car les gens anticipent ce qui se passera après avoir cliqué.
À l’heure actuelle, un biofeedback peut être créé en surveillant le comportement oculaire de l’utilisateur et l’interface utilisateur peut être repensée en temps réel pour créer davantage de réponses attendues des élèves. Il s’agit d’une « interface cerveau-ordinateur » grossière mise en œuvre par les yeux, sans que l’utilisateur ait à subir une chirurgie cérébrale invasive.
D'autres techniques permettant de déduire des états cognitifs consistent à faire clignoter rapidement des images ou des sons aux utilisateurs d'une manière dont ils peuvent ne pas être conscients, puis à mesurer leurs réactions.
Un autre brevet détaille l'utilisation de l'apprentissage automatique et des signaux du corps et du cerveau pour prédire à quel point un utilisateur est concentré, détendu ou apprend efficacement, puis met à jour l'environnement virtuel pour améliorer ces états.
Imaginez des environnements immersifs adaptatifs qui vous aident à étudier, travailler ou vous détendre en modifiant ce que vous voyez et entendez en arrière-plan.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!