Heim > Artikel > Technologie-Peripheriegeräte > Beherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind
In diesem Artikel werden hauptsächlich mehrere häufig verwendete Koordinatensysteme in der autonomen Fahrtechnologie vorgestellt und erläutert, wie die Korrelation und Konvertierung zwischen ihnen abgeschlossen und schließlich ein einheitliches Umgebungsmodell erstellt werden kann. Der Schwerpunkt liegt hier auf dem Verständnis der Umrechnung vom Fahrzeug in den starren Kamerakörper (externe Parameter), der Kamera-in-Bild-Konvertierung (interne Parameter) und der Bild-in-Pixel-Einheitenkonvertierung. Die Konvertierung von 3D in 2D führt zu entsprechenden Verzerrungen, Verschiebungen usw. Wichtiger Punkt: Selbstfahrzeugkoordinatensystem
KamerakörperkoordinatensystemWas neu geschrieben werden muss, ist: EbenenkoordinatensystemPixelkoordinatensystemSchwierigkeit: Bildverzerrung muss berücksichtigt werden, und sowohl Entverzerrung als auch Verzerrungsaddition sind erforderlich Kompensiert auf der Bildebene
erfolgt. Drei Sensorkoordinatensysteme
3.1 Kamerakoordinatensystem3.1.1 Bildkoordinatensystem (oder Pixelkoordinatensystem)
Bei auf dem Computer gespeicherten Fotos oder Bildern ist die obere linke Ecke im Allgemeinen der Ursprung, die positive x-Richtung ist nach rechts und die positive y-Richtung ist nach unten. Die am häufigsten verwendete Einheit ist „Pixel“. Das Bildkoordinatensystem ist ein zweidimensionales Koordinatensystem mit der Bezeichnung (Xv, Yv).Der Inhalt, der neu geschrieben werden muss, ist: 3.1.2 Kamerakoordinatensystem
Da die x-Achse des Bildkoordinatensystems nach rechts und die y-Achse nach unten zeigt, wird das Kamerakoordinatensystem übernommen der Mittelpunkt der optischen Hauptachse des Objektivs als Ursprung. Im Allgemeinen ist die positive Richtung die x-Achse nach rechts, die positive Richtung die y-Achse nach unten und die positive Richtung die z-Achse nach vorne. Auf diese Weise stimmen die x- und y-Richtungen mit der Richtung des Bildkoordinatensystems überein und die z-Richtung repräsentiert die Schärfentiefe. Das Kamerakoordinatensystem kann ausgedrückt werden als (Xc, Yc). Um in der Lage zu seinquantitative Beschreibung Die Abbildungsbeziehung vom dreidimensionalen Raum zum zweidimensionalen Bild, was neu geschrieben werden muss, wird in Grafiken eingeführt: das ebene Koordinatensystem. Es handelt sich um eine Übersetzung des Kamerakoordinatensystems. Der Abstand vom Mittelpunkt der optischen Achse ist gleich der Brennweite der Kamera verkleinertes invertiertes Bild auf dem Film hinter der Mitte der optischen Achse, ist die reale Bildebene (Xf, Yf). Zur Vereinfachung der Analyse und Berechnung werden wir jedoch eine virtuelle Bildebene vor der Mitte der optischen Achse einrichten. Das Bild auf der virtuellen Bildebene ist ein aufrechtes Bild und hat die gleiche Größe wie das reale invertierte Bild Es kann jedes Objekt darstellen, das durch die Kamera eingeführt wird. Die Einheit ist Meter
Weltkoordinatensystem
, Kamerakoordinatensystem , Bildkoordinatensystem und Pixelkoordinatensystem
Vier Lidar-Koordinatensysteme Lidar (Light Detection and Ranging) ist ein Fernerkundungstechnologie , die mithilfe von Laserstrahlen die Entfernung zu Objekten misst. Es sendet Strahlen mit einer 360-Grad-Drehung aus und bildet elektrische Wolken basierend auf unterschiedlichen Reflexionen unterschiedlicher Zielreflektivitäten. Im Bereich des autonomen Fahrens und der Robotik wird Lidar häufig als Hauptsensor eingesetzt, um „3D-Informationen der Umgebung zu erhalten“. In den meisten Fällen ist das Lidar-Koordinatensystem rechtshändig, die spezifische Definition kann jedoch je nach Lidar-Hersteller variieren.
X-Achse: zeigt normalerweise vor dem Lidar. Wenn der Laserstrahl direkt nach vorne abgefeuert wird, ergibt die Entfernungsmessung aus dieser Richtung einen positiven Wert auf der X-Achse. Y-Achse: zeigt normalerweise auf die linke Seite des Lidar. Wenn der Laserstrahl direkt nach links abgefeuert wird, ergibt die Entfernungsmessung aus dieser Richtung einen positiven Wert auf der Y-Achse. Z-Achse: zeigt normalerweise nach oben vom Lidar, senkrecht zur X- und Y-Achse. Höhenmessungen werden normalerweise entlang der Z-Achse durchgeführt, wobei positive Werte anzeigen, dass das Objekt höher als das Lidar-Gerät ist, und negative Werte anzeigen, dass es niedriger als das Lidar-Gerät ist.
Wählen Sie ein Referenzkoordinatensystem in der allgemeinen Umgebung, um die Positionen von Sensoren und Objekten zu beschreiben Dieses Koordinatensystem wird im Allgemeinen als Weltkoordinatensystem bezeichnet bezieht sich auf die Fahrzeugkarosserie Die Mitte der Hinterachse ist der Ursprung (da sich die Mitte der Hinterachse relativ zum Schwenken des Autos nicht ändert) , das räumliche Koordinatensystem oben links vorne oder oben rechts vorne, links (rechts) ist im Allgemeinen horizontal, vorne ist im Allgemeinen längs und oben bezieht sich auf den Boden. Im obigen Raum bewegt sich das Koordinatensystem mit der Bewegung des Autos. Alle Downstream-Ziele, die erfasst und ausgegeben werden müssen, müssen sich unter dem Koordinatensystem des eigenen Fahrzeugs befinden. Das BEV-Perspektivziel bezieht sich auch auf dieses Koordinatensystem.
Im Allgemeinen das dreidimensionale Raumkoordinatensystem verwendet drei orthogonale Achsen Das Zeitkoordinatensystem hat nur eine Dimension. Der Einfachheit halber diskutieren wir Raumkoordinaten und Zeitkoordinaten im Allgemeinen getrennt. 6 Interne und externe Parameter der Kamera
6.1 Interne Parameter der Kamera6.2 Brennweite (f) Sie beschreibt den Abstand zwischen dem Bildsensor und dem Objektiv der Kamera. Wird normalerweise durch zwei Parameter (
Diese Matrix wird oft als interne Parametermatrix oder Kameramatrix bezeichnet.
Leiten Sie die Position des Objekts im dreidimensionalen Kamerakoordinatensystem anhand des zweidimensionalen Bildes ab, z. Erhalten Sie dreidimensionale Entfernungsinformationen aus einem zweidimensionalen Bild. Wenn die Position des Objekts im Weltkoordinatensystem ermittelt werden muss, müssen Sie auch die Pose der Kamera im Weltkoordinatensystem kennen. Diese Posendarstellung wird als externer Parameter der Kamera bezeichnet und dient zur Bestimmung der relativen Positionsbeziehung zwischen den Kamerakoordinaten und dem Weltkoordinatensystem. Bei autonomen Fahranwendungen erfordert das Erhalten dieser Positionsbeziehung eine Reihe von Kalibrierungs- und Positionierungsarbeiten. Die Kamera ist eine Rotations- und Translationsmatrix relativ zu anderen Koordinatensystemen. Der externe Rotationsparameter ist der oben erwähnte Euler-Winkel [Gieren, Patch, Rollen]. Übersetzung der Kamera in das Zielkoordinatensystem. Entfernung, Einheit Meter. Sieben Fahrzeugkoordinatensysteme und Weltkoordinatensysteme Fahrzeug.
Normalerweise zeigt die X-Achse zur Vorderseite des Fahrzeugs, die Y-Achse zeigt rechts (oder links, je nach Vereinbarung) des Fahrzeugs und die Z-Achse zeigt oberhalb des Fahrzeugs.8.1 Vom Weltkoordinatensystem zu Das Kamerakoordinatensystem
Die Koordinatensystemtransformation zwischen Objekten kann die Rotationstransformation plus Translationstransformation des Koordinatensystems darstellen, und das Gleiche gilt für die Konvertierungsbeziehung vom Weltkoordinatensystem zum Kamerakoordinatensystem. Das Drehen verschiedener Winkel um verschiedene Achsen führt zu unterschiedlichen Rotationsmatrizen.
Schematisches Diagramm der Drehung θ um die Z-Achse:Schließlich kann es einfach als Rotationsmatrix zusammengefasst werden: Übersetzung: Übersetzen Sie den Kamerakoordinatenpunkt () Der Übersetzungsabstand beträgt () zu der Weltkoordinatenpunkt
8.2 Kamerakoordinatensystem zum Bildkoordinatensystem Vom Kamerakoordinatensystem zum Bildkoordinatensystem handelt es sich um eine perspektivische Projektionsbeziehung, die von 3D in 2D konvertiert wird. Es kann auch als Änderungsmodell des Lochblendenmodells angesehen werden. Erfüllen Sie den Dreiecksähnlichkeitssatz.8.3 Bildkoordinatensystem zu Pixelkoordinatensystem
Durch die endgültige Konvertierungsbeziehung kann ein dreidimensionaler Koordinatenpunkt den entsprechenden Pixelpunkt im Bild finden. Umgekehrt wird es jedoch zu einem Problem, den entsprechenden Punkt im dreidimensionalen Raum durch einen Punkt im Bild zu finden, da wir den Wert auf der linken Seite der Gleichung nicht kennen
Der rote Kasten ist der Externer Parameter, R und T sind die Rotations- bzw. Translationsbeträge. Die internen Parameter sind inhärente Attribute der Kamera, nämlich die Brennweite f und die Pixelgröße dx,dy. Offensichtlich stellt es den Abstand zwischen dem Punkt und der optischen Achse dar.
sortiert die verschiedenen Koordinatensysteme des autonomen Fahrens, zeigt die Beziehung zwischen den verschiedenen Koordinatensystemen des autonomen Fahrens und ermittelt schließlich die Beziehung zwischen das Pixelkoordinatensystem und das Weltkoordinatensystem.
Originallink: https://mp.weixin.qq.com/s/tTRCjZBRZcnb59nX3FRR8w
Das obige ist der detaillierte Inhalt vonBeherrschen Sie die Koordinatensystemkonvertierung wirklich? Multisensorik-Themen, die für das autonome Fahren unverzichtbar sind. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!