Maison > Article > Périphériques technologiques > Une brève analyse du développement de l'interaction homme-machine dans les cockpits intelligents
À l'heure actuelle, les voitures ont non seulement changé en termes de sources d'énergie, de méthodes de conduite et d'expérience de conduite, mais le cockpit a également fait ses adieux à l'espace mécanique et électronique ennuyeux traditionnel. Le niveau d'intelligence a grimpé en flèche, devenant le « troisième espace ». "après la vie des gens en dehors de la maison et du bureau. Trois espaces". Grâce à des technologies de pointe telles que la reconnaissance des visages et des empreintes digitales, l'interaction voix/gestes et la liaison multi-écrans, les cockpits intelligents des automobiles d'aujourd'hui ont considérablement amélioré leurs capacités en matière de perception de l'environnement, de collecte et de traitement d'informations, et sont devenus des « assistants intelligents » pour la conduite humaine. .
Le cockpit intelligent fait ses adieux à l'électronique simple et entre dans la phase d'assistant intelligent. L'un des signes significatifs est que l'interaction entre les personnes et le cockpit passe de passive à active. Ce "passif" et "actif" sont basés sur la conduite. La cabine elle-même est définie de manière centrale. Dans le passé, l'échange d'informations était principalement initié par des personnes, mais il peut désormais être initié à la fois par des personnes et des machines. Le niveau d'interaction entre les personnes et les machines est devenu un symbole important pour définir le niveau des produits de cockpit intelligent.
L'histoire des ordinateurs et des téléphones mobiles peut refléter le développement des méthodes d'interaction entre les machines et les personnes, de la complexité à la simplicité, des actions abstraites au naturel interaction. La tendance de développement la plus importante de l’interaction homme-machine à l’avenir consiste à faire passer les machines d’une réponse passive à une interaction active. En regardant l’extension de cette tendance, le but ultime de l’interaction homme-machine est d’anthropomorphiser les machines, rendant l’interaction entre les humains et les machines aussi naturelle et fluide que la communication entre les humains. En d’autres termes, l’histoire de l’interaction homme-machine est l’histoire de l’adaptation des personnes des machines à l’adaptation aux personnes via les machines.
Le développement de cockpits intelligents suit également un processus similaire. Avec les progrès de la technologie électronique et les attentes des propriétaires de voitures, il existe de plus en plus de signaux et de fonctions électroniques à l'intérieur et à l'extérieur de la voiture, afin que les propriétaires de voitures puissent réduire le gaspillage des ressources d'attention et ainsi réduire la distraction liée à la conduite. En conséquence, l'interaction avec la voiture a progressivement changé : bouton/clavier physique - écran tactile numérique - contrôle de la langue - interaction à l'état naturel.
Qu'est-ce que l'interaction naturelle ?
En bref, la communication se fait par le mouvement, le suivi oculaire, le langage, etc. La modalité de conscience s'apparente ici plus spécifiquement à la « perception » humaine. Sa forme est mêlée à diverses perceptions et correspond aux cinq perceptions humaines majeures que sont la vision, l'ouïe, le toucher, l'odorat et le goût. Les supports d'information correspondants comprennent divers capteurs, tels que le son, la vidéo, le texte et l'infrarouge, la pression et le radar. Une voiture intelligente est essentiellement un robot habité. Ses deux fonctions les plus critiques sont son propre contrôle et la fonction d'interaction avec les gens. Sans l'une d'entre elles, elle ne sera pas en mesure de travailler efficacement avec les gens. Par conséquent, un système intelligent d’interaction homme-machine est indispensable.
Comment réaliser une interaction naturelle
De plus en plus de capteurs sont intégrés dans le cockpit, et les capteurs ont amélioré les capacités de diversification des formes, de richesse et de précision des données. D'une part, cela fait bondir la demande de puissance de calcul dans le cockpit et, d'autre part, cela offre également une meilleure prise en charge des capacités de perception. Cette tendance permet de créer des innovations de scène de cockpit plus riches et de meilleures expériences interactives. Parmi eux, le traitement visuel est la clé de la technologie d’interaction homme-machine dans le cockpit. Et la technologie de fusion constitue la véritable solution. Par exemple, lorsqu’il s’agit de reconnaissance vocale dans des conditions bruyantes, les microphones seuls ne suffisent pas. Dans ce cas, les gens peuvent écouter de manière sélective le discours de quelqu'un, non seulement avec leurs oreilles, mais aussi avec leurs yeux. Ainsi, en identifiant visuellement la source sonore et en lisant sur les lèvres, il est possible d’obtenir de meilleurs résultats qu’une simple reconnaissance vocale. Si le capteur est constitué des cinq sens d'une personne, alors la puissance de calcul est un cerveau humain automatiquement interactif. L'algorithme d'IA combine la vision et la parole, il peut traiter divers signaux tels que le visage, le mouvement, la posture. et identification vocale. En conséquence, une interaction humaine-cible plus intelligente peut être obtenue, notamment le suivi oculaire, la reconnaissance vocale, la liaison de reconnaissance du langage parlé et la détection de l'état de fatigue du conducteur, etc.
La conception de l'interaction du personnel du cockpit doit généralement être réalisée via l'informatique de pointe plutôt que par le cloud computing. Trois points : sécurité, sécurité en temps réel et confidentialité. Le cloud computing repose sur le réseau. Pour les voitures intelligentes, s'appuyer sur les réseaux sans fil ne peut garantir la fiabilité de leurs connexions. Dans le même temps, le délai de transmission des données est incontrôlable et une interaction fluide ne peut être garantie. Pour garantir une expérience utilisateur complète dans les domaines de sécurité automatisés, la solution réside dans l’edge computing.
Cependant, la sécurité des informations personnelles est également l'un des problèmes rencontrés. L'espace privé dans la cabine est particulièrement sécurisant en termes de sécurité. La reconnaissance vocale personnalisée d'aujourd'hui est principalement mise en œuvre sur le cloud, et les informations biométriques privées telles que les empreintes vocales peuvent afficher plus facilement les informations d'identité privées. En utilisant la conception Edge AI côté voiture, les informations biométriques privées telles que les images et les sons peuvent être converties en informations sémantiques de la voiture, puis téléchargées sur le cloud, garantissant ainsi efficacement la sécurité des informations personnelles de la voiture.
À l'ère de la conduite autonome, l'intelligence interactive doit correspondre à l'intelligence de conduite
Dans un avenir proche, le vol coopératif des drones deviendra un phénomène de longue date et l'interaction des drones dans le cockpit deviendra contrôlée par l'homme La première interface de compétences de vol actif. Actuellement, le domaine de la conduite intelligente est confronté à un problème d'évolution inégale. Le niveau d'interaction homme-machine est en retard par rapport à l'amélioration de la conduite autonome, ce qui entraîne de fréquents problèmes de conduite autonome et entrave le développement de la conduite autonome. La caractéristique du comportement de coopération en matière d'interaction homme-machine est la boucle d'opération humaine. Par conséquent, la fonction d’interaction homme-machine doit être cohérente avec la fonction de conduite autonome. Ne pas le faire entraînera de sérieux risques attendus en matière de sécurité fonctionnelle, qui sont associés à la grande majorité des incidents mortels de conduite autonome. Une fois que l'interface d'interaction homme-machine pourra fournir les résultats cognitifs de sa propre conduite, la limite énergétique du système de conduite autonome pourra être mieux comprise, ce qui contribuera grandement à améliorer l'acceptation des fonctions de conduite autonome de niveau L+.
Bien sûr, la méthode d'interaction actuelle du cockpit intelligent est principalement une extension de l'écosystème du téléphone mobile Android, principalement prise en charge par l'écran hôte. Les moniteurs d'aujourd'hui sont de plus en plus grands, et cela est en fait dû au fait que les fonctions de faible priorité occupent l'espace des fonctions de haute priorité, provoquant des interférences de signal supplémentaires et affectant la sécurité de fonctionnement. À l’avenir, même si les affichages physiques existeront toujours, je pense qu’ils seront remplacés par une interaction naturelle homme-machine + AR-HUD.
Si le système de conduite intelligente est développé jusqu'au niveau L4 ou supérieur, les gens seront libérés de la conduite ennuyeuse et fatigante, et les voitures deviendront « le troisième espace de vie des gens ». De cette façon, les positions de la zone de divertissement et de la zone fonctionnelle de sécurité (interaction homme-machine et contrôle automatique) dans la cabine seront modifiées à l'avenir, et la zone de sécurité deviendra la zone de contrôle principale. La conduite autonome est l'interaction entre les voitures et l'environnement, et l'interaction entre les personnes est l'interaction entre les personnes et les voitures. Les deux sont intégrés pour compléter la collaboration des personnes, des voitures et de l'environnement, formant une boucle fermée complète de conduite.
Deuxièmement, l'interface de dialogue automatique + AR-HUD est plus sûre lors de la communication avec des mots ou des gestes, elle peut éviter de détourner la vue du conducteur, améliorant ainsi la sécurité de conduite. Cela n'est tout simplement pas possible sur un grand écran de cockpit, mais ARHUD contourne ce problème en affichant des signaux de détection de conduite autonome.
Troisièmement, la méthode de conversation naturelle est une méthode de conversation naturelle implicite, concise et émotionnelle. Vous ne pouvez pas occuper trop d'espace physique précieux dans la voiture, mais vous pouvez être avec la personne libre à tout moment et n'importe où. Par conséquent, à l'avenir, l'intégration intra-domaine de la conduite intelligente et du cockpit intelligent sera une méthode de développement plus sûre, et le développement final sera le système central de la voiture.
Interaction tactile
L'écran de la console centrale n'affichait que des informations radio et la majeure partie de la zone abritait un grand nombre de boutons d'interaction physique. Fondamentalement, la communication avec les humains se fait par interaction tactile.
Avec le développement de l'interaction intelligente, de grands écrans de contrôle central sont apparus et le nombre de boutons d'interaction physique a commencé à diminuer progressivement. Le grand écran de contrôle central devient de plus en plus grand et occupe une place de plus en plus importante. Les boutons physiques de la console centrale ont été réduits à néant. À l'heure actuelle, les occupants ne peuvent plus interagir avec les gens par le toucher. Cependant, à ce stade, l'interaction se transforme progressivement en interaction visuelle. , mais utilise principalement la vision pour communiquer et fonctionner. Mais il sera absolument gênant pour les gens de parler aux humains dans le cockpit intelligent en utilisant uniquement la vision. En particulier pendant la conduite, 90 % de l'attention visuelle humaine doit être consacrée à l'observation des conditions routières, afin qu'il puisse se concentrer longtemps sur l'écran et parler avec le cockpit intelligent.
Interaction vocale
(1) Principe de l'interaction vocale.
Compréhension de la parole naturelle - reconnaissance vocale - parole dans la parole.
(2) Scénarios requis pour l'interaction vocale.
Il y a deux éléments principaux dans l'application de scénario de commande vocale. L'un est qu'elle peut remplacer la fonction sans invite sur l'écran tactile et avoir un dialogue naturel avec l'interface homme-machine. impact du contrôle manuel de l’interface homme-machine. Améliorer la sécurité.
Tout d'abord, lorsque vous rentrez du travail, vous souhaitez contrôler rapidement le véhicule, consulter des informations et vérifier la climatisation, les sièges, etc. pendant la conduite. Sur les longs trajets, renseignez-vous sur les zones de service et les stations-service en cours de route, ainsi que sur les horaires. La seconde consiste à utiliser la voix pour tout relier. La musique et les divertissements sous-écrans dans la voiture peuvent être rapidement évoqués. Il faut donc contrôler rapidement le véhicule.
La première chose est de contrôler la voiture rapidement. Les fonctions de base comprennent le réglage de l'éclairage ambiant dans la voiture, le réglage du volume, le réglage de la température de la climatisation dans la voiture, le réglage des vitres, le réglage du rétroviseur. L'intention initiale de contrôler rapidement le véhicule est de rendre le conducteur plus rapide. Un contrôle prudent du véhicule et une réduction des distractions contribueront à augmenter le facteur de sécurité de fonctionnement. L'interaction linguistique à distance constitue une entrée importante dans la mise en œuvre de l'ensemble du système, car le système doit comprendre les instructions vocales du conducteur et fournir une navigation intelligente. Non seulement nous pouvons accepter passivement des tâches, mais nous pouvons également vous fournir des services supplémentaires tels que l'introduction de la destination et la planification des horaires.
Ensuite, il y a la surveillance du véhicule et du conducteur. Pendant le fonctionnement en temps réel, vous pouvez à tout moment vous renseigner sur la pression des pneus, la température du réservoir, le liquide de refroidissement, l'huile moteur et d'autres performances du véhicule. La requête d'informations en temps réel aide les conducteurs à traiter les informations à l'avance. Bien entendu, vous devez également être attentif en temps réel lorsque vous atteignez le point critique d’avertissement. En plus de la surveillance interne, une surveillance externe est bien entendu également nécessaire. Une surveillance mixte de la biométrie et de la voix peut surveiller les émotions du conducteur. Rappelez au conducteur de se remonter le moral au moment opportun pour éviter les accidents de la route. Ainsi que des précautions contre les bruits de fatigue causés par une conduite à long terme. Enfin, en matière de divertissement multimédia, les scènes de conduite, la diffusion de musique et de radio sont les opérations et besoins les plus fréquents. En plus des fonctions simples telles que la lecture, la pause et le changement de chanson, le développement de fonctions personnalisées telles que la collecte, l'enregistrement d'un compte, l'ouverture de l'historique de lecture, le changement de l'ordre de lecture et l'interaction sur site sont également attendus.
Adaptation aux erreurs
La tolérance aux pannes doit être autorisée dans les conversations vocales. La tolérance aux pannes de base est également gérée scénario par scénario. La première est que l'utilisateur ne comprend pas et il lui est demandé de le répéter. La deuxième est que l'utilisateur a écouté mais n'a pas la capacité de gérer le problème. La troisième est qu'il est reconnu comme un message d'erreur. , ce qui peut être à nouveau confirmé.
Reconnaissance faciale
(1) Principe de reconnaissance faciale.
La technologie de reconnaissance des traits du visage dans le cockpit comprend généralement les trois aspects suivants : l'inspection des traits du visage et la reconnaissance des formes. À mesure que les informations globales sur Internet deviennent biogéniques, les informations faciales sont saisies sur de multiples plates-formes et les voitures sont au centre de l'Internet des Objets. À mesure que de plus en plus de scénarios d'utilisation de terminaux mobiles se déplacent vers la voiture, l'enregistrement du compte et l'authentification de l'identité doivent être effectués dans. la voiture.
(2) Scénarios d'utilisation de la reconnaissance faciale.
Avant de conduire, vous devez monter dans la voiture pour vérifier les informations du propriétaire de la voiture et enregistrer l'identifiant de l'application. Pendant la marche, la reconnaissance faciale est le principal scénario de travail en cas de fatigue avec les yeux fermés pendant la marche, de rappel téléphonique, de perte de vue et de bâillement.
Une simple interaction peut rendre le conducteur plus gênant. Par exemple, l'utilisation de la voix seule est sujette à des erreurs d'orientation et à de simples opérations tactiles, et le conducteur ne peut pas respecter le principe des 3 secondes. Ce n'est que lorsque plusieurs méthodes d'interaction telles que la voix, les gestes et la vision sont intégrées que le système intelligent peut communiquer avec le conducteur dans divers scénarios de manière plus précise, plus pratique et plus sûre.
Défis de l'interaction homme-machine
L'interaction naturelle idéale commence par les sentiments de l'utilisateur et crée une expérience interactive sûre, fluide et prévisible. Mais quelle que soit la richesse de la vie, nous devons toujours partir des faits. De nombreux défis restent encore à relever.
Actuellement, la mauvaise reconnaissance des interactions naturelles est encore très grave, et la fiabilité et la précision dans toutes les conditions de travail et par tous les temps sont loin d'être suffisantes. Par conséquent, en reconnaissance gestuelle, le taux de reconnaissance gestuelle basée sur la vision est encore très faible, c'est pourquoi divers algorithmes doivent être développés pour améliorer la précision et la rapidité de la reconnaissance. Des gestes involontaires peuvent être confondus avec des actions de commandement, mais il ne s’agit en fait que d’un malentendu parmi d’autres. Dans le cas du mouvement, la projection, la vibration et l’occlusion de la lumière sont autant de problèmes techniques majeurs. Par conséquent, afin de réduire le taux de reconnaissance erronée, divers moyens techniques doivent être pleinement pris en charge en utilisant des méthodes de vérification de fusion multi-capteurs, une confirmation sonore et d'autres méthodes adaptées au scénario de fonctionnement. Deuxièmement, le problème actuel de fluidité des interactions naturelles reste une difficulté qui doit être surmontée, nécessitant des capteurs plus avancés, des capacités plus puissantes et un calcul plus efficace. Dans le même temps, les capacités de traitement du langage naturel et d’expression des intentions en sont encore à leurs balbutiements et nécessitent des recherches approfondies sur la technologie algorithmique.
Dans le futur, l'interaction homme-machine dans le cockpit s'orientera vers le monde virtuel et la connexion émotionnelle
L'une des raisons pour lesquelles les consommateurs sont prêts à payer pour des fonctions intelligentes supplémentaires au-delà de la mobilité automobile est la conversation et l'expérience. Nous avons mentionné plus haut que le développement futur des cockpits intelligents est centré sur les personnes et qu'il deviendra le troisième espace de la vie des gens.
Ce type d'interaction homme-machine n'est en aucun cas une simple réponse à un appel, mais une expérience de communication multicanal, multiniveau et multimode. Du point de vue des occupants, le futur système d'interaction homme-machine intelligent dans le cockpit utilisera le langage intelligent comme principal moyen de communication, et le toucher, les gestes, la dynamique, les expressions, etc. comme moyens de communication auxiliaires, libérant ainsi les mains et les yeux du occupants pour réduire le risque de manipulation du conducteur.
Avec l'augmentation du nombre de capteurs dans le cockpit, c'est une tendance certaine de déplacer l'objet de service d'interaction homme-machine d'un service centré sur le conducteur vers un service complet pour les passagers du véhicule. Le cockpit intelligent construit un espace virtuel et l'interaction naturelle entre les personnes apportera une nouvelle expérience de divertissement immersive en réalité étendue. La configuration puissante, combinée au puissant équipement interactif du cockpit, peut créer un métaverse embarqué et proposer divers jeux immersifs. Les cockpits intelligents peuvent constituer un bon support pour l’espace d’origine.
L'interaction naturelle entre l'homme et la machine apporte également une connexion émotionnelle. Le cockpit devient le compagnon d'une personne, un compagnon plus intelligent, apprenant le comportement, les habitudes et les préférences du propriétaire de la voiture, détectant l'environnement dans le cockpit et le combinant. avec l'emplacement actuel du véhicule, fournissant de manière proactive des informations et des conseils sur les fonctionnalités en cas de besoin. Avec le développement de l’intelligence artificielle, au cours de notre vie, nous avons la possibilité de voir les liens émotionnels humains participer progressivement à nos vies personnelles. Veiller à ce que la technologie soit bonne pourrait être un autre problème majeur auquel nous devrons faire face à cette époque. Quoi qu’il en soit, la technologie évoluera dans cette direction.
Dans la concurrence féroce actuelle dans l'industrie automobile, le système de cockpit à intelligence artificielle est devenu un enjeu clé pour parvenir à une différenciation fonctionnelle de l'ensemble de l'usine de machines, car le système d'interaction homme-machine dans le cockpit Il est étroitement lié au comportement de communication, à la langue et à la culture des personnes, etc., il doit donc être hautement localisé. L'interaction homme-machine des véhicules intelligents constitue une percée importante pour la mise à niveau de la marque des entreprises chinoises de véhicules intelligents et une percée pour la technologie des véhicules intelligents de la Chine afin de guider les tendances de développement technologique mondial.
L'intégration de ces interactions offrira une expérience immersive plus complète à l'avenir et continuera de promouvoir la maturité des nouvelles méthodes et technologies d'interaction. On s'attend à ce que la fonction actuelle d'amélioration de l'expérience évolue vers une fonction incontournable. pour les futurs cockpits intelligents. À l’avenir, la technologie intelligente d’interaction dans le cockpit devrait répondre à une variété de besoins de voyage, qu’il s’agisse de besoins de sécurité de base ou de besoins psychologiques plus profonds liés au sentiment d’appartenance et à l’épanouissement de soi.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!