Heim >Technologie-Peripheriegeräte >KI >Eine kurze Analyse der Entwicklung der Mensch-Computer-Interaktion in intelligenten Cockpits
Gegenwärtig haben sich Autos nicht nur in Bezug auf Antriebsquellen, Fahrmethoden und Fahrerlebnis verändert, auch das Cockpit hat sich vom traditionell langweiligen mechanischen und elektronischen Raum verabschiedet. Das Niveau der Intelligenz ist sprunghaft angestiegen und hat sich zum „dritten Raum“ entwickelt „Nach dem Leben der Menschen außerhalb von Zuhause und Büro. Drei Räume“. Durch Spitzentechnologien wie Gesichts- und Fingerabdruckerkennung, Sprach-/Gesteninteraktion und Multi-Screen-Verknüpfung haben die heutigen intelligenten Cockpits in Automobilen ihre Fähigkeiten in der Umweltwahrnehmung, Informationserfassung und -verarbeitung erheblich verbessert und sind zu „intelligenten Assistenten“ für das menschliche Fahren geworden .
Das intelligente Cockpit verabschiedet sich von der einfachen Elektronik und tritt in die Phase des intelligenten Assistenten ein. Eines der wesentlichen Anzeichen ist, dass die Interaktion zwischen Mensch und Cockpit vom Passiven zum Aktiven wechselt . Die Kabine selbst ist zentral definiert. Früher wurde der Informationsaustausch hauptsächlich von Menschen initiiert, heute kann er sowohl von Menschen als auch von Maschinen initiiert werden. Der Grad der Interaktion zwischen Menschen und Maschinen ist zu einem wichtigen Symbol für die Definition des Niveaus von Smart-Cockpit-Produkten geworden.
Die Geschichte von Computern und Mobiltelefonen kann die Entwicklung von Interaktionsmethoden zwischen Maschinen und Menschen widerspiegeln, von Komplexität zu Einfachheit, von abstrakten Handlungen zu natürlichen Interaktion. Der wichtigste Entwicklungstrend der Mensch-Computer-Interaktion in der Zukunft besteht darin, Maschinen von der passiven Reaktion zur aktiven Interaktion zu bewegen. Betrachtet man die Ausweitung dieses Trends, besteht das ultimative Ziel der Mensch-Maschine-Interaktion darin, Maschinen zu vermenschlichen und die Interaktion zwischen Menschen und Maschinen so natürlich und reibungslos zu gestalten wie die Kommunikation zwischen Menschen. Mit anderen Worten: Die Geschichte der Mensch-Computer-Interaktion ist die Geschichte der Anpassung von Menschen von Maschinen an Menschen durch Maschinen.
Die Entwicklung intelligenter Cockpits verläuft ebenfalls nach einem ähnlichen Prozess. Mit der Weiterentwicklung der elektronischen Technologie und den Erwartungen der Autobesitzer gibt es immer mehr elektronische Signale und Funktionen innerhalb und außerhalb des Autos, sodass Autobesitzer die Verschwendung von Aufmerksamkeitsressourcen und damit die Ablenkung beim Fahren reduzieren können Dadurch hat sich die Fahrzeuginteraktion nach und nach verändert: Physischer Knopf/Tastatur – digitaler Touchscreen – Sprachsteuerung – natürliche Interaktion.
Was ist natürliche Interaktion?
Kurz gesagt, Kommunikation wird durch Bewegung, Blickverfolgung, Sprache usw. erreicht. Die Bewusstseinsmodalität ähnelt hier insbesondere der menschlichen „Wahrnehmung“. Ihre Form ist mit verschiedenen Wahrnehmungen vermischt und entspricht den fünf wichtigsten menschlichen Wahrnehmungen: Sehen, Hören, Berühren, Riechen und Schmecken. Zu den entsprechenden Informationsmedien gehören verschiedene Sensoren wie Ton, Video, Text und Infrarot, Druck und Radar. Ein intelligentes Auto ist im Wesentlichen ein bemannter Roboter. Seine beiden wichtigsten Funktionen sind Selbstkontrolle und Interaktion mit Menschen. Ohne eine dieser Funktionen kann es nicht effizient mit Menschen zusammenarbeiten. Daher ist ein intelligentes Mensch-Computer-Interaktionssystem dringend erforderlich.
Wie man natürliche Interaktion realisiert
Immer mehr Sensoren werden in das Cockpit integriert, und die Sensoren haben die Möglichkeiten der Formvielfalt, Datenfülle und Genauigkeit verbessert. Einerseits lässt es den Rechenleistungsbedarf im Cockpit sprunghaft ansteigen, andererseits sorgt es auch für eine bessere Unterstützung der Wahrnehmungsfähigkeit. Dieser Trend ermöglicht die Schaffung umfassenderer Innovationen in der Cockpit-Szene und besserer interaktiver Erlebnisse. Unter ihnen ist die visuelle Verarbeitung der Schlüssel zur Mensch-Computer-Interaktionstechnologie im Cockpit. Und Fusionstechnologie ist die eigentliche Lösung, wenn es beispielsweise um die Spracherkennung in lauten Umgebungen geht, reichen Mikrofone allein nicht aus. In diesem Fall können Menschen der Rede einer Person nicht nur mit den Ohren, sondern auch mit den Augen selektiv zuhören. Daher ist es möglich, durch visuelle Identifizierung der Schallquelle und Lippenlesen bessere Ergebnisse zu erzielen als durch einfache Spracherkennung. Wenn der Sensor die fünf Sinne eines Menschen sind, dann ist die Rechenleistung ein automatisch interaktives menschliches Gehirn. Der KI-Algorithmus kombiniert Sehen und Sprechen. Durch verschiedene kognitive Methoden kann er verschiedene Signale wie Gesicht, Bewegung, Körperhaltung, verarbeiten. und Stimmerkennung. Dadurch kann eine intelligentere menschliche Zielinteraktion erreicht werden, einschließlich Blickverfolgung, Spracherkennung, Verknüpfung der Erkennung gesprochener Sprache und Erkennung des Ermüdungsstatus des Fahrers usw.
Die Gestaltung der Interaktion des Cockpit-Personals muss in der Regel durch Edge-Computing und nicht durch Cloud-Computing erfolgen. Drei Punkte: Sicherheit, Echtzeit- und Datenschutzsicherheit. Cloud Computing ist auf das Netzwerk angewiesen. Bei intelligenten Autos kann die Zuverlässigkeit ihrer Verbindungen nicht gewährleistet werden, wenn man sich auf drahtlose Netzwerke verlässt. Gleichzeitig ist die Verzögerung der Datenübertragung unkontrollierbar und ein reibungsloses Zusammenspiel kann nicht gewährleistet werden. Um ein umfassendes Benutzererlebnis für automatisierte Sicherheitsdomänen zu gewährleisten, liegt die Lösung im Edge Computing.
Allerdings ist auch die Sicherheit personenbezogener Daten eines der Probleme. Der private Raum im Fahrerhaus ist in puncto Sicherheit besonders sicher. Die heutige personalisierte Spracherkennung wird hauptsächlich in der Cloud implementiert, und private biometrische Informationen wie Stimmabdrücke können private Identitätsinformationen bequemer anzeigen. Durch die Verwendung des Edge-KI-Designs auf der Fahrzeugseite können private biometrische Informationen wie Bilder und Töne in semantische Informationen des Fahrzeugs umgewandelt und dann in die Cloud hochgeladen werden, wodurch die Sicherheit der persönlichen Daten des Fahrzeugs effektiv gewährleistet wird.
Im Zeitalter des autonomen Fahrens muss interaktive Intelligenz mit der Fahrintelligenz übereinstimmen
In absehbarer Zukunft wird der kooperative Drohnenflug ein langjähriges Phänomen sein und die Drohneninteraktion im Cockpit wird vom Menschen gesteuert Die erste Schnittstelle für aktive Flugfähigkeiten. Derzeit ist der Bereich des intelligenten Fahrens mit dem Problem einer ungleichmäßigen Entwicklung konfrontiert. Der Grad der Mensch-Computer-Interaktion bleibt hinter der Verbesserung des autonomen Fahrens zurück, was häufig zu Problemen beim autonomen Fahren führt und die Entwicklung des autonomen Fahrens behindert. Das Merkmal des Kooperationsverhaltens bei der Mensch-Computer-Interaktion ist die menschliche Operationsschleife. Daher muss die Mensch-Computer-Interaktionsfunktion mit der autonomen Fahrfunktion konsistent sein. Andernfalls sind ernsthafte Risiken für die funktionale Sicherheit zu erwarten, die mit der überwiegenden Mehrheit der tödlichen Unfälle beim autonomen Fahren verbunden sind. Sobald die Mensch-Computer-Interaktionsschnittstelle die kognitiven Ergebnisse des eigenen Fahrens liefern kann, kann die Energiegrenze des autonomen Fahrsystems besser verstanden werden, was erheblich dazu beitragen wird, die Akzeptanz autonomer Fahrfunktionen der Stufe L+ zu verbessern.
Natürlich ist die aktuelle Smart-Cockpit-Interaktionsmethode hauptsächlich eine Erweiterung des mobilen Android-Ökosystems, die hauptsächlich vom Host-Bildschirm unterstützt wird. Heutige Monitore werden immer größer, und das liegt tatsächlich daran, dass Funktionen mit niedriger Priorität den Platz von Funktionen mit hoher Priorität einnehmen, was zu zusätzlichen Signalstörungen führt und die Betriebssicherheit beeinträchtigt. Obwohl es in Zukunft immer noch physische Displays geben wird, glaube ich, dass sie durch natürliche Mensch-Computer-Interaktion + AR-HUD ersetzt werden.
Wenn das intelligente Fahrsystem auf L4 oder höher weiterentwickelt wird, werden die Menschen vom langweiligen und ermüdenden Fahren befreit und Autos werden zum „dritten Lebensraum der Menschen“. Auf diese Weise werden in Zukunft die Standorte des Unterhaltungsbereichs und des Sicherheitsfunktionsbereichs (Mensch-Computer-Interaktion und automatische Steuerung) in der Kabine geändert und der Sicherheitsbereich wird zum Hauptkontrollbereich. Autonomes Fahren ist die Interaktion zwischen Autos und der Umwelt, und die Interaktion zwischen Menschen ist die Interaktion zwischen Menschen und Autos. Beide werden integriert, um die Zusammenarbeit von Menschen, Autos und der Umwelt zu vervollständigen und einen vollständig geschlossenen Fahrkreislauf zu bilden.
Zweitens ist die automatische Dialog- und AR-HUD-Dialogschnittstelle sicherer. Bei der Kommunikation mit Worten oder Gesten kann eine Ablenkung der Sicht des Fahrers vermieden werden, wodurch die Fahrsicherheit verbessert wird. Dies ist auf einem großen Cockpit-Bildschirm einfach nicht möglich, aber ARHUD umgeht dieses Problem, indem es Sensorsignale für das autonome Fahren anzeigt.
Drittens ist die natürliche Gesprächsmethode eine implizite, prägnante und emotionale natürliche Gesprächsmethode. Sie können nicht zu viel wertvollen physischen Platz im Auto einnehmen, aber Sie können jederzeit und überall mit der freien Person zusammen sein. Daher wird die domäneninterne Integration von Smart Driving und Smart Cockpit in Zukunft eine sicherere Entwicklungsmethode sein und die endgültige Entwicklung wird das zentrale System des Autos sein.
Touch-Interaktion
Auf dem Bildschirm der frühen Mittelkonsole wurden nur Radioinformationen angezeigt, und der größte Teil des Bereichs beherbergte eine große Anzahl physischer Interaktionstasten Grundsätzlich erfolgt die Kommunikation mit Menschen durch taktile Interaktion.
Mit der Entwicklung der intelligenten Interaktion sind große Bildschirme für die zentrale Steuerung entstanden und die Anzahl der physischen Interaktionstasten nimmt allmählich ab. Der große zentrale Kontrollbildschirm wird immer größer und nimmt eine immer wichtigere Position ein. Die physischen Tasten auf der Mittelkonsole wurden auf Null reduziert. Zu diesem Zeitpunkt können die Insassen nicht mehr durch Berührung mit anderen kommunizieren , sondern nutzen hauptsächlich das Sehen, um zu kommunizieren. Aber es wird für Menschen absolut unbequem sein, im intelligenten Cockpit nur über das Sehen mit Menschen zu kommunizieren. Insbesondere beim Autofahren muss der Mensch 90 % seiner visuellen Aufmerksamkeit auf die Beobachtung der Straßenverhältnisse richten, damit er sich lange auf den Bildschirm konzentrieren und mit dem smarten Cockpit sprechen kann.
Sprachinteraktion
(1) Prinzip der Sprachinteraktion.
Verstehen natürlicher Sprache – Spracherkennung – Sprache in Sprache.
(2) Für die Sprachinteraktion erforderliche Szenarien.
Es gibt zwei Hauptelemente in der Szenarioanwendung der Sprachsteuerung: Zum einen kann sie die Funktion ohne Eingabeaufforderungen auf dem Touchscreen ersetzen und zum anderen einen natürlichen Dialog mit der Mensch-Maschine-Schnittstelle führen Auswirkungen der manuellen Steuerung der Mensch-Maschine-Schnittstelle. Verbesserung der Sicherheit.
Wenn Sie von der Arbeit nach Hause kommen, möchten Sie zunächst während der Fahrt schnell das Fahrzeug steuern, Informationen abfragen und Klimaanlage, Sitze usw. überprüfen. Informieren Sie sich auf langen Fahrten unterwegs über Raststätten und Tankstellen sowie über den Fahrplan. Die zweite besteht darin, alles per Sprache zu verknüpfen. Musik und Subscreen-Entertainment im Auto sind schnell herbeigerufen. Was wir also tun müssen, ist, das Fahrzeug schnell zu kontrollieren.
Zu den Grundfunktionen gehört die Einstellung der Umgebungsbeleuchtung im Auto, die Einstellung der Temperaturregelung der Klimaanlage im Auto, die Einstellung der Fenster und die Einstellung des Rückspiegels Die ursprüngliche Absicht der schnellen Steuerung des Fahrzeugs besteht darin, den Fahrer schneller zu machen. Eine sorgfältige Steuerung des Fahrzeugs und die Reduzierung von Ablenkungen tragen dazu bei, den Sicherheitsfaktor zu erhöhen. Die Sprachinteraktion aus der Ferne ist ein wichtiger Zugang zur Implementierung des gesamten Systems, da das System die Sprachanweisungen des Fahrers verstehen und eine intelligente Navigation ermöglichen muss. Wir können nicht nur passiv Aufgaben annehmen, sondern Ihnen auch Zusatzleistungen wie Zielvorstellung und Terminplanung anbieten.
Dazu kommt noch die Überwachung von Fahrzeug und Fahrer. Im Echtzeitbetrieb können Sie jederzeit den Reifendruck, die Tanktemperatur, das Kühlmittel, das Motoröl und andere Fahrzeugleistungen sowie den Fahrzeugstatus abfragen. Die Echtzeit-Informationsabfrage hilft Fahrern, Informationen im Voraus zu verarbeiten. Selbstverständlich sollten Sie auch beim Erreichen des warnungskritischen Punktes in Echtzeit aufpassen. Neben der internen Überwachung ist natürlich auch eine externe Überwachung erforderlich. Durch eine gemischte Überwachung von Biometrie und Sprachüberwachung können die Emotionen des Fahrers überwacht werden. Erinnern Sie den Fahrer rechtzeitig daran, aufzumuntern, um Verkehrsunfälle zu vermeiden. Sowie Vorsichtsmaßnahmen gegen Ermüdungsgeräusche, die durch langes Fahren verursacht werden. Im Hinblick auf Multimedia-Unterhaltung schließlich sind Fahrszenen, Musikwiedergabe und Radio die häufigsten Vorgänge und Bedürfnisse. Neben einfachen Funktionen wie Abspielen, Pause und Songwechsel wartet auch die Entwicklung personalisierter Funktionen wie Sammeln, Kontoregistrierung, Öffnen des Spielverlaufs, Wechseln der Spielreihenfolge und Interaktion vor Ort auf Sie.
Fehler berücksichtigen
In Sprachgesprächen muss Fehlertoleranz zugelassen werden. Die grundlegende Fehlertoleranz wird auch auf Szenario-für-Szenario-Basis gehandhabt. Das erste ist, dass der Benutzer es nicht versteht und aufgefordert wird, es noch einmal zu sagen. Das zweite ist, dass der Benutzer zugehört hat, aber nicht in der Lage ist, das Problem zu lösen. Das dritte ist, dass es als Fehlermeldung erkannt wird. was wiederum bestätigt werden kann.
Gesichtserkennung
(1) Prinzip der Gesichtserkennung.
Die Gesichtsmerkmalserkennungstechnologie im Cockpit umfasst im Allgemeinen die folgenden drei Aspekte: Gesichtsmerkmalsinspektion und Mustererkennung. Da die gesamten Informationen im Internet biogen werden, werden Gesichtsinformationen auf mehreren Plattformen eingegeben, und Autos stehen im Mittelpunkt des Internet of Everything. Da sich immer mehr Szenarien für die Nutzung mobiler Endgeräte auf das Auto verlagern, müssen Kontoregistrierung und Identitätsauthentifizierung durchgeführt werden das Auto.
(2) Anwendungsszenarien für die Gesichtserkennung.
Bevor Sie losfahren, müssen Sie in das Auto einsteigen, um die Informationen zum Autobesitzer zu überprüfen und die Antrags-ID zu registrieren. Die Gesichtserkennung ist das Hauptarbeitsszenario für Ermüdung beim Gehen mit geschlossenen Augen, Telefonerinnerung, fehlendem Sehvermögen und Gähnen.
Einfache Interaktion kann es für den Fahrer unbequemer machen. Beispielsweise ist die alleinige Verwendung der Sprache anfällig für Fehlleitungen und einfache Touch-Bedienungen, und der Fahrer kann das 3-Sekunden-Prinzip nicht einhalten. Nur wenn mehrere Interaktionsmethoden wie Stimme, Gesten und Vision integriert werden, kann das intelligente System in verschiedenen Szenarien präziser, bequemer und sicherer mit dem Fahrer kommunizieren. „Herausforderungen und Zukunft der Mensch-Computer-Interaktion“ Aber egal wie reich das Leben ist, wir müssen immer von den Fakten ausgehen. Es gibt derzeit noch viele Herausforderungen.
In Zukunft wird sich die Mensch-Computer-Interaktion im Cockpit in Richtung der virtuellen Welt und der emotionalen Verbindung verlagern
Einer der Gründe, warum Verbraucher bereit sind, für zusätzliche intelligente Funktionen über die Mobilität im Auto hinaus zu zahlen, sind Gespräche und Erlebnisse. Wir haben oben erwähnt, dass die Entwicklung intelligenter Cockpits in Zukunft auf den Menschen ausgerichtet sein wird und sich zum dritten Raum im Leben der Menschen entwickeln wird.
Bei dieser Art der Mensch-Computer-Interaktion handelt es sich keineswegs um eine einfache Anrufbeantwortung, sondern um ein Kommunikationserlebnis auf mehreren Kanälen, auf mehreren Ebenen und in mehreren Modi. Aus der Sicht der Insassen wird das zukünftige intelligente Mensch-Computer-Interaktionssystem im Cockpit intelligente Sprache als Hauptkommunikationsmittel und Berührungen, Gesten, Dynamik, Ausdrücke usw. als Hilfskommunikationsmittel verwenden, wodurch die Hände und Augen der Insassen frei werden Insassen, um das Risiko einer Manipulation durch den Fahrer zu verringern.
Mit der Zunahme von Sensoren im Cockpit ist es ein eindeutiger Trend, das Dienstleistungsobjekt der Mensch-Computer-Interaktion vom fahrerzentrierten hin zum kompletten Fahrzeug-Passagierservice zu verlagern. Das intelligente Cockpit schafft einen virtuellen Raum und die natürliche Interaktion zwischen Menschen wird ein neues, immersives Extended-Reality-Unterhaltungserlebnis ermöglichen. Die leistungsstarke Konfiguration kann in Kombination mit der leistungsstarken interaktiven Ausrüstung im Cockpit ein Metaversum im Auto aufbauen und verschiedene immersive Spiele ermöglichen. Intelligente Cockpits können ein guter Träger für ursprünglichen Raum sein.
Die natürliche Interaktion zwischen Mensch und Maschine bringt auch eine emotionale Verbindung mit sich. Das Cockpit wird zum Begleiter einer Person, zu einem intelligenteren Begleiter, indem es das Verhalten, die Gewohnheiten und Vorlieben des Autobesitzers lernt, die Umgebung im Cockpit wahrnimmt und kombiniert mit dem aktuellen Standort des Fahrzeugs und stellt bei Bedarf proaktiv Informationen und Funktionstipps bereit. Mit der Entwicklung der künstlichen Intelligenz haben wir im Laufe unseres Lebens die Möglichkeit, menschliche emotionale Verbindungen allmählich in unser Privatleben einzubeziehen. Sicherzustellen, dass die Technologie gut ist, könnte ein weiteres großes Problem sein, dem wir uns in dieser Zeit stellen müssen. Aber egal was passiert, die Technologie wird sich in diese Richtung entwickeln.
Im aktuellen harten Wettbewerb in der Automobilindustrie ist das Cockpitsystem mit künstlicher Intelligenz zu einem Schlüsselthema bei der Verwirklichung der funktionalen Differenzierung der gesamten Maschinenfabrik geworden, denn Das Mensch-Computer-Interaktionssystem im Cockpit ist eng mit dem Kommunikationsverhalten, der Sprache, der Kultur usw. der Menschen verbunden und muss daher stark lokalisiert werden. Intelligente Fahrzeug-Mensch-Computer-Interaktion ist ein wichtiger Durchbruch für die Markenaufwertung chinesischer Hersteller intelligenter Fahrzeuge und ein Durchbruch für Chinas intelligente Fahrzeugtechnologie, um die technologischen Entwicklungstrends der Welt zu leiten.
Die Integration dieser Interaktionen wird in Zukunft ein umfassenderes immersives Erlebnis bieten und die Reife neuer Interaktionsmethoden und -technologien weiter fördern. Es wird erwartet, dass sich die aktuelle erlebnissteigernde Funktion zu einer unverzichtbaren Funktion entwickelt für zukünftige smarte Cockpits. Künftig soll die intelligente Cockpit-Interaktionstechnologie eine Vielzahl von Reisebedürfnissen abdecken, seien es grundlegende Sicherheitsbedürfnisse oder tiefere psychologische Bedürfnisse nach Zugehörigkeitsgefühl und Selbstverwirklichung.
Das obige ist der detaillierte Inhalt vonEine kurze Analyse der Entwicklung der Mensch-Computer-Interaktion in intelligenten Cockpits. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!