Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

WBOY
WBOYnach vorne
2023-10-12 11:21:081649Durchsuche

Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

1 Einführung und wichtige Punkte

In diesem Artikel werden hauptsächlich mehrere häufig verwendete Koordinatensysteme in der autonomen Fahrtechnologie vorgestellt und erläutert, wie die Korrelation und Konvertierung zwischen ihnen abgeschlossen und schließlich ein einheitliches Umgebungsmodell erstellt werden kann. Der Schwerpunkt liegt hier auf dem Verständnis der Umrechnung vom Fahrzeug in den starren Kamerakörper (externe Parameter), der Kamera-in-Bild-Konvertierung (interne Parameter) und der Bild-in-Pixel-Einheitenkonvertierung. Die Konvertierung von 3D in 2D führt zu entsprechenden Verzerrungen, Verschiebungen usw. Wichtiger Punkt: Selbstfahrzeugkoordinatensystem
KamerakörperkoordinatensystemWas neu geschrieben werden muss, ist: EbenenkoordinatensystemPixelkoordinatensystemSchwierigkeit: Bildverzerrung muss berücksichtigt werden, und sowohl Entverzerrung als auch Verzerrungsaddition sind erforderlich Kompensiert auf der Bildebene

II Einführung

Das visuelle System hat vier Koordinatensysteme: Pixelebenenkoordinatensystem (u, v), Bildkoordinatensystem (x, y), Kamerakoordinatensystem () und Weltkoordinatensystem ( ). Es besteht eine Verbindung zwischen jedem Koordinatensystem. Daher muss durch die Kamerakalibrierung gelöst werden, wie die Koordinaten des Weltkoordinatensystems anhand der Bildpixelkoordinaten ermittelt werden können. Der Schlüsselteil des Algorithmus liegt in der Koordinatensystemkonvertierung und der Transformation erfolgt durch

Die Darstellung homogener Koordinaten

erfolgt. Drei Sensorkoordinatensysteme

3.1 Kamerakoordinatensystem

Die Funktion der Kamera besteht darin, die Form- und Farbinformationen in der dreidimensionalen Welt in ein zweidimensionales Bild zu komprimieren

. Der kamerabasierte

Wahrnehmungsalgorithmus extrahiert und stellt Elemente und Informationen in der dreidimensionalen Welt aus zweidimensionalen Bildern wie Fahrspurlinien, Fahrzeugen, Fußgängern usw. wieder her und berechnet deren relative Positionen zu sich selbst. Zu den Koordinatensystemen im Zusammenhang mit dem Wahrnehmungsalgorithmus und der Kamera gehören das Bildkoordinatensystem (Pixelkoordinatensystem) und das Kamerakoordinatensystem. Was neu geschrieben werden muss, ist: das Ebenenkoordinatensystem

3.1.1 Bildkoordinatensystem (oder Pixelkoordinatensystem)

Bei auf dem Computer gespeicherten Fotos oder Bildern ist die obere linke Ecke im Allgemeinen der Ursprung, die positive x-Richtung ist nach rechts und die positive y-Richtung ist nach unten. Die am häufigsten verwendete Einheit ist „Pixel“. Das Bildkoordinatensystem ist ein zweidimensionales Koordinatensystem mit der Bezeichnung (Xv, Yv).

Der Inhalt, der neu geschrieben werden muss, ist: 3.1.2 Kamerakoordinatensystem

Da die x-Achse des Bildkoordinatensystems nach rechts und die y-Achse nach unten zeigt, wird das Kamerakoordinatensystem übernommen der Mittelpunkt der optischen Hauptachse des Objektivs als Ursprung. Im Allgemeinen ist die positive Richtung die x-Achse nach rechts, die positive Richtung die y-Achse nach unten und die positive Richtung die z-Achse nach vorne. Auf diese Weise stimmen die x- und y-Richtungen mit der Richtung des Bildkoordinatensystems überein und die z-Richtung repräsentiert die Schärfentiefe. Das Kamerakoordinatensystem kann ausgedrückt werden als (Xc, Yc). Um in der Lage zu sein

quantitative Beschreibung Die Abbildungsbeziehung vom dreidimensionalen Raum zum zweidimensionalen Bild, was neu geschrieben werden muss, wird in Grafiken eingeführt: das ebene Koordinatensystem. Es handelt sich um eine Übersetzung des Kamerakoordinatensystems. Der Abstand vom Mittelpunkt der optischen Achse ist gleich der Brennweite der Kamera verkleinertes invertiertes Bild auf dem Film hinter der Mitte der optischen Achse, ist die reale Bildebene (Xf, Yf). Zur Vereinfachung der Analyse und Berechnung werden wir jedoch eine virtuelle Bildebene vor der Mitte der optischen Achse einrichten. Das Bild auf der virtuellen Bildebene ist ein aufrechtes Bild und hat die gleiche Größe wie das reale invertierte Bild Es kann jedes Objekt darstellen, das durch die Kamera eingeführt wird. Die Einheit ist Meter

Weltkoordinatensystem

, Kamerakoordinatensystem , Bildkoordinatensystem und Pixelkoordinatensystem

Vier Lidar-Koordinatensysteme Lidar (Light Detection and Ranging) ist ein Fernerkundungstechnologie , die mithilfe von Laserstrahlen die Entfernung zu Objekten misst. Es sendet Strahlen mit einer 360-Grad-Drehung aus und bildet elektrische Wolken basierend auf unterschiedlichen Reflexionen unterschiedlicher Zielreflektivitäten. Im Bereich des autonomen Fahrens und der Robotik wird Lidar häufig als Hauptsensor eingesetzt, um „3D-Informationen der Umgebung zu erhalten“. In den meisten Fällen ist das Lidar-Koordinatensystem rechtshändig, die spezifische Definition kann jedoch je nach Lidar-Hersteller variieren.

Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

4.1 Definition

X-Achse: zeigt normalerweise vor dem Lidar. Wenn der Laserstrahl direkt nach vorne abgefeuert wird, ergibt die Entfernungsmessung aus dieser Richtung einen positiven Wert auf der X-Achse. Y-Achse: zeigt normalerweise auf die linke Seite des Lidar. Wenn der Laserstrahl direkt nach links abgefeuert wird, ergibt die Entfernungsmessung aus dieser Richtung einen positiven Wert auf der Y-Achse. Z-Achse: zeigt normalerweise nach oben vom Lidar, senkrecht zur X- und Y-Achse. Höhenmessungen werden normalerweise entlang der Z-Achse durchgeführt, wobei positive Werte anzeigen, dass das Objekt höher als das Lidar-Gerät ist, und negative Werte anzeigen, dass es niedriger als das Lidar-Gerät ist.

4.2 Bedeutung

  • Das Koordinatensystem des fahrzeugmontierten Lidar-Systems stimmt möglicherweise nicht vollständig mit dem Fahrzeugkoordinatensystem überein, und eine Transformationsmatrix ist erforderlich, um eine Koordinatentransformation zwischen den beiden durchzuführen.
  • Datenanmerkung, Kartenerstellung, Objekterkennung und andere Aufgaben erfordern eine klare Definition des Lidar-Koordinatensystems.
  • Für die Datenfusion mit anderen Sensoren, wie z. B. Kameras, ist es sehr wichtig, die jeweiligen Koordinatensysteme zu kennen, um eine korrekte Datenausrichtung und -fusion durchzuführen.
  • Bei der Datenfusion mit Kameras, Radargeräten oder anderen Sensoren ist es in der Regel erforderlich, die externen Kalibrierungsparameter (z. B. Rotations- und Translationsmatrizen) zwischen Lidar und diesen Sensoren zu kennen, um eine Koordinatentransformation zwischen ihnen durchzuführen.

Das Fünf-Fahrzeug-Koordinatensystem

Wählen Sie ein Referenzkoordinatensystem in der allgemeinen Umgebung, um die Positionen von Sensoren und Objekten zu beschreiben Dieses Koordinatensystem wird im Allgemeinen als Weltkoordinatensystem bezeichnet bezieht sich auf die Fahrzeugkarosserie Die Mitte der Hinterachse ist der Ursprung (da sich die Mitte der Hinterachse relativ zum Schwenken des Autos nicht ändert) , das räumliche Koordinatensystem oben links vorne oder oben rechts vorne, links (rechts) ist im Allgemeinen horizontal, vorne ist im Allgemeinen längs und oben bezieht sich auf den Boden. Im obigen Raum bewegt sich das Koordinatensystem mit der Bewegung des Autos. Alle Downstream-Ziele, die erfasst und ausgegeben werden müssen, müssen sich unter dem Koordinatensystem des eigenen Fahrzeugs befinden. Das BEV-Perspektivziel bezieht sich auch auf dieses Koordinatensystem.

Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

Im Allgemeinen das dreidimensionale Raumkoordinatensystem verwendet drei orthogonale Achsen Das Zeitkoordinatensystem hat nur eine Dimension. Der Einfachheit halber diskutieren wir Raumkoordinaten und Zeitkoordinaten im Allgemeinen getrennt. 6 Interne und externe Parameter der Kamera

6.1 Interne Parameter der Kamera

Interne Parameter werden verwendet, um das Projektionsverhältnis der Kamera vom dreidimensionalen Raum zum zweidimensionalen Bild zu bestimmen. Es enthält hauptsächlich drei Parameter:

Hauptpunkt der Kamera, Brennweite der Kamera und Verzerrungskoeffizient

. Interne Parameter werden in der Regel vom Händler vorgegeben, auch eine Kamerakalibrierung kann durchgeführt werden. Bei autonomen Fahranwendungen sind die internen Parameter der Kamera Konstanten und ändern sich während der Nutzung nicht, sie müssen jedoch vor der Nutzung kalibriert werden. Der Aufnahmeprozess der Kamera kann in den Prozess der Zuordnung vom dreidimensionalen Kamerakoordinatensystem zum zweidimensionalen Koordinatensystem, dem ebenen Koordinatensystem, und anschließender Zuordnung zum Bildkoordinatensystem abstrahiert werden.

6.2 Brennweite (f) Sie beschreibt den Abstand zwischen dem Bildsensor und dem Objektiv der Kamera. Wird normalerweise durch zwei Parameter (

) und () dargestellt, die der x-Achse bzw. der y-Achse des Bildes entsprechen.

    In vielen Fällen gehen wir von (
  • ) aus, was bedeutet, dass die Pixel in beide Richtungen quadratisch sind. 6.3 Hauptpunkt
  • Es ist ein Punkt im Bild, normalerweise nahe der Bildmitte. Es ist der 2D-Punkt, der einem Punkt im 3D-Raum entspricht, wenn er auf die Bildebene projiziert wird.
  • wird normalerweise durch zwei Parameter (

) und () dargestellt, die den Koordinaten auf der x-Achse und der y-Achse des Bildes entsprechen.

  • 6,4 Verzerrungskoeffizient
  • Das Objektiv einer echten Kamera kann zu Verzerrungen führen, die zu Bildverzerrungen führen. Zu den häufigsten Verzerrungen gehören radiale und tangentiale Verzerrungen.
  • Der häufig verwendete radiale Verzerrungskoeffizient ist (

). Der tangentiale Verzerrungskoeffizient beträgt (

    ).
  • Im Allgemeinen können die internen Parameter der Kamera durch eine Matrix dargestellt werden:
  • Diese Matrix wird oft als interne Parametermatrix oder Kameramatrix bezeichnet.

    6.5 Extrinsische Parameter der Kamera

    Leiten Sie die Position des Objekts im dreidimensionalen Kamerakoordinatensystem anhand des zweidimensionalen Bildes ab, z. Erhalten Sie dreidimensionale Entfernungsinformationen aus einem zweidimensionalen Bild. Wenn die Position des Objekts im Weltkoordinatensystem ermittelt werden muss, müssen Sie auch die Pose der Kamera im Weltkoordinatensystem kennen. Diese Posendarstellung wird als externer Parameter der Kamera bezeichnet und dient zur Bestimmung der relativen Positionsbeziehung zwischen den Kamerakoordinaten und dem Weltkoordinatensystem. Bei autonomen Fahranwendungen erfordert das Erhalten dieser Positionsbeziehung eine Reihe von Kalibrierungs- und Positionierungsarbeiten. Die Kamera ist eine Rotations- und Translationsmatrix relativ zu anderen Koordinatensystemen. Der externe Rotationsparameter ist der oben erwähnte Euler-Winkel [Gieren, Patch, Rollen]. Übersetzung der Kamera in das Zielkoordinatensystem. Entfernung, Einheit Meter. Sieben Fahrzeugkoordinatensysteme und Weltkoordinatensysteme Fahrzeug.

    Normalerweise zeigt die X-Achse zur Vorderseite des Fahrzeugs, die Y-Achse zeigt rechts (oder links, je nach Vereinbarung) des Fahrzeugs und die Z-Achse zeigt oberhalb des Fahrzeugs.

    Der Ursprung dieses Koordinatensystems liegt je nach konkreter Anwendung und Konvention in der Regel an einem festen Punkt am Fahrzeug, beispielsweise in der Fahrzeugmitte, an der Hinterachse des Fahrzeugs usw.

    7.2 Weltkoordinatensystem

    • Dies ist ein festes, globales Koordinatensystem, das zur Beschreibung von Objekten und Fahrzeugen in der Umgebung verwendet wird.
    • Der Ursprung und die Richtung des Weltkoordinatensystems werden normalerweise basierend auf der spezifischen Anwendung oder dem spezifischen Szenario ausgewählt. Es kann beispielsweise an einem festen Punkt auf einer Karte oder in der Mitte einer Szene positioniert werden.
    • Das Weltkoordinatensystem bietet einen gemeinsamen Bezugsrahmen für mehrere Entitäten und ermöglicht die relative Positionierung und Navigation zwischen ihnen.

    Beziehung und Konvertierung:

      - Da sich das Fahrzeug in der Welt bewegt, ändert sich die Beziehung zwischen dem eigenen Fahrzeugkoordinatensystem und dem Weltkoordinatensystem mit der Zeit. - Zur Umrechnung zwischen diesen beiden Koordinatensystemen ist in der Regel eine Transformationsmatrix bzw. Transformation (meist bestehend aus einer Drehung und einer Translation) erforderlich. Diese Konvertierung kann über verschiedene Sensoren (wie GPS, IMU, Lidar) und Algorithmen (wie SLAM) erfolgen. - Die Transformation kann als homogene 4x4-Koordinatenmatrix ausgedrückt werden, die uns die Transformation von einem Koordinatensystem in ein anderes ermöglicht.
    • In den meisten Fällen sind das Koordinatensystem des eigenen Fahrzeugs und das Weltkoordinatensystem dasselbe, und dieser Artikel versteht auch dies
    Konvertierungsbeziehung zwischen den acht Koordinatensystemen

    8.1 Vom Weltkoordinatensystem zu Das Kamerakoordinatensystem

    Die Koordinatensystemtransformation zwischen Objekten kann die Rotationstransformation plus Translationstransformation des Koordinatensystems darstellen, und das Gleiche gilt für die Konvertierungsbeziehung vom Weltkoordinatensystem zum Kamerakoordinatensystem. Das Drehen verschiedener Winkel um verschiedene Achsen führt zu unterschiedlichen Rotationsmatrizen.

    Schematisches Diagramm der Drehung θ um die Z-Achse:

    Schließlich kann es einfach als Rotationsmatrix zusammengefasst werden: Übersetzung: Übersetzen Sie den Kamerakoordinatenpunkt () Der Übersetzungsabstand beträgt () zu der Weltkoordinatenpunkt

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    8.2 Kamerakoordinatensystem zum Bildkoordinatensystem

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    Vom Kamerakoordinatensystem zum Bildkoordinatensystem handelt es sich um eine perspektivische Projektionsbeziehung, die von 3D in 2D konvertiert wird. Es kann auch als Änderungsmodell des Lochblendenmodells angesehen werden. Erfüllen Sie den Dreiecksähnlichkeitssatz.

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind8.3 Bildkoordinatensystem zu Pixelkoordinatensystem

    In diesem Fall gibt es im Gegensatz zur vorherigen Koordinatensystemtransformation zu diesem Zeitpunkt keine Rotationstransformation, aber die Position und Größe des Koordinatenursprungs sind inkonsistent, daher Teleskopdesign ist erforderlich. Transformation und Übersetzungstransformation

    8.4 Die Beziehung zwischen den vier Koordinatensystemen

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    Durch die endgültige Konvertierungsbeziehung kann ein dreidimensionaler Koordinatenpunkt den entsprechenden Pixelpunkt im Bild finden. Umgekehrt wird es jedoch zu einem Problem, den entsprechenden Punkt im dreidimensionalen Raum durch einen Punkt im Bild zu finden, da wir den Wert auf der linken Seite der Gleichung nicht kennen

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    Der rote Kasten ist der Externer Parameter, R und T sind die Rotations- bzw. Translationsbeträge. Die internen Parameter sind inhärente Attribute der Kamera, nämlich die Brennweite f und die Pixelgröße dx,dy. Offensichtlich stellt es den Abstand zwischen dem Punkt und der optischen Achse dar.

    Neun Zusammenfassung

    sortiert die verschiedenen Koordinatensysteme des autonomen Fahrens, zeigt die Beziehung zwischen den verschiedenen Koordinatensystemen des autonomen Fahrens und ermittelt schließlich die Beziehung zwischen das Pixelkoordinatensystem und das Weltkoordinatensystem.

    Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind

    Originallink: https://mp.weixin.qq.com/s/tTRCjZBRZcnb59nX3FRR8w

Das obige ist der detaillierte Inhalt vonBeherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen