Heim >Technologie-Peripheriegeräte >KI >Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

王林
王林nach vorne
2023-04-12 15:19:431590Durchsuche

Im fahrerlosen Fahren sind Wahrnehmung, Positionierung, Planung und Entscheidungsfindung sowie Steuerung die vier grundlegenden Systemmodule. Da der aktuelle Algorithmus keine absolute Intelligenz erreichen kann, ist noch viel Vorwissen erforderlich, um die Leistung und Robustheit des Moduls zu verbessern und so ein sicheres autonomes Fahren zu erreichen. Zu den hochpräzisen Karten gehört die Integration von Vorkenntnissen über Straßen und Umgebungen. Die genaue Positionierung anhand der Karte ist eine wichtige Grundlage zur Beurteilung der Fahrbedingungen und liefert eine starke Unterstützung für spätere Wahrnehmungs- und Planungsentscheidungen.

Zu den wichtigsten Datenquellen für die Positionierung gehören derzeit GPS, Lidar, Vision und Millimeterwellenradar. Obwohl es derzeit in der Branche keine ausreichend zuverlässige Positionierungslösung gibt, hat die Forschung in diesem Bereich nie aufgehört:

#🎜🎜 #Sicherheit ist Der wichtigste Indikator des unbemannten Fahrsystems, daher ist die Implementierung der meisten Funktionen die Kopplung von Daten aus mehreren Quellen und unterschiedlichen Algorithmusergebnissen. Keine Sensorlösung ist perfekt. Als weit verbreitete Lösung wird GPS RTK beispielsweise leicht von den Wetterbedingungen und den Übertragungsbedingungen der Datenübertragung beeinflusst und kann nicht in Tunneln, Innenräumen und dicht besiedelten Hochhausgebieten eingesetzt werden. Darüber hinaus bietet Lidar zwar die Vorteile eines geringen Rechenaufwands, liefert Tiefeninformationen und wird nicht durch die Beleuchtung beeinflusst, die Informationen sind jedoch spärlich, die Kosten sind immer noch sehr hoch und es ist noch nicht in der Lage, große Mengen an Fahrzeugen zusammenzubauen. Im Vergleich dazu werden die von Kameras bereitgestellten visuellen Informationen zwar von Licht und Wetter beeinflusst, sind jedoch kostengünstig und inhaltsreich. Sie sind die Hauptdatenquelle für aktuelle Lösungen für das assistierte Fahren und bieten auch großes Potenzial für die Kartenpositionierung.

Da die Kernideen der gängigen visuellen Positionierungsalgorithmen dieselben sind, werden in diesem Artikel nur die in der Praxis am häufigsten verwendeten funktionsbasierten Algorithmen aus der Perspektive einer Reihe von vorgestellt Wichtige Algorithmus-Framework-Komponenten. Globaler Positionierungsalgorithmus für Punkte, also die Positionierung im Kartenkoordinatensystem. In diesem Artikel wird auf die damit verbundene Optimierung und Ableitung der geometrischen Zwangsformel verzichtet, um den Schülern eine makroökonomische Einführung in Positionierungsalgorithmen zu geben. Weitere Informationen finden Sie in der entsprechenden Literatur und in Büchern.

1 Das Konzept der visuellen globalen Positionierung

Visuelle globale Positionierung bezieht sich auf das Finden basierend auf dem aktuellen Bild Die 6 Freiheitsgrade (DoF) der Kamera im Kartenkoordinatensystem, nämlich (x, y, z)-Koordinaten, und die Winkelauslenkung um die drei Koordinatenachsen (Gieren, Nicken, Rollen). Derzeit kann es hauptsächlich in 3D-strukturbasierte Methoden, 2D-bildbasierte Methoden, sequenzbildbasierte Methoden und Deep-Learning-basierte Methoden klassifiziert werden. Unter diesen sind auf Deep Learning basierende Methoden End-to-End-Methoden, während andere mehrstufige (mehrstufige) Nicht-End-to-End-Methoden unterschiedliche Prozesse haben, die Algorithmusideen jedoch größtenteils wie in Abb. 1 dargestellt sind Darstellung:

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 1: Berechnen Sie anhand des Abfragebildes die 2D-3D-Transformationsmatrix und lösen Sie die Kameraposition

Passen Sie anhand der erstellten Karte die ähnlichste Kartenteilmenge (Bild/Punktwolke/Feature-Punkt) im Verlauf an. Basierend auf den übereinstimmenden wahren Werten der historischen Pose und den wahren Werten der Merkmalspunktkoordinaten, die von der Kartenteilmenge bereitgestellt werden, werden die Transformationsmatrix zwischen Punktpaaren berechnet und die aktuelle Kamerapose gelöst.

Der Kern umfasst also vier Aspekte: Bildbeschreibung, Zuordnungsabfrage, Feature-Matching und Posenberechnung. Dabei handelt es sich nur um eine Makroklassifizierung auf technischer Ebene. Das tatsächliche Algorithmus-Framework wird möglicherweise nicht unbedingt in dieser Reihenfolge ausgeführt, und Wissenschaftler konzentrieren sich in ihrer Forschung hauptsächlich auf die Verbesserung dieser Technologien. Insgesamt ist die auf Merkmalspunkten basierende Bildbeschreibung grundsätzlich ausgereift und hat weniger Entwicklung. Da es sich bei der Posenberechnung um ein Optimierungsproblem handelt, das auf geometrischen Einschränkungen basiert, ist die Methode relativ fest. Im Gegensatz dazu gibt es viele verbesserte Techniken bei der Zuordnung von Abfragen und dem Feature-Matching. Abhängig von der Datenquelle können Zuordnungsabfrage und -abgleich 2D-2D, 2D-3D oder 3D-3D sein. 2D-Bilder werden von Kameras aufgenommen und 3D-Punktwolken können von Fernglaskameras oder RGB-D-Kameras erzeugt werden, die für Tiefe sorgen.

2 Merkmalspunktextraktion

Das 2D-Bild selbst ist eine Matrix aus Helligkeit und Farbe. Es reagiert sehr empfindlich auf Betrachtungswinkel, Beleuchtung, Farbtonänderungen usw. und ist sehr schwierig direkt zu verwenden. Daher werden im Allgemeinen repräsentative Punkte für relevante Berechnungen verwendet. Die Menschen hoffen, dass solche Punkte die Vorteile von Rotation, Translation, Skalierung, Beleuchtungsinvarianz usw. haben. Diese Punkte werden als Merkmalspunkte des Bildes bezeichnet, einschließlich Schlüsselpunkten und Deskriptoren. Schlüsselpunkte drücken die Position von Merkmalspunkten aus, während Deskriptoren die visuellen Eigenschaften von Merkmalspunkten beschreiben, meist in Vektorform. Im Allgemeinen zählen Deskriptoren hauptsächlich Graustufen-/Farbverlaufsänderungen um Schlüsselpunkte in einem bestimmten Muster. Für einen robusten Deskriptor sollte der Abstand (Distanz) des Deskriptors desselben Merkmalspunkts in verschiedenen Situationen unterschiedlicher Bilder kleiner sein.

Deskriptoren sind im Allgemeinen handgefertigte Funktionen. Zu den klassischen Beschreibungen gehören HOG (Histogram of Oriented Gradients) [1], SIFT (Scale-invariant Feature Transform) [2], SURF (Speeded Up Robust Features) [3], AKAZE (Accelerated KAZE) [4] usw.

Um die Echtzeitanforderungen zu erfüllen, wurden einige binäre Musterdeskriptoren mit schnellerer Berechnungsgeschwindigkeit entwickelt, wie z. B. LBP (Local Binary Patterns) [5], BRIEF (Binary Robust Independent Elementary Features) und ORB (Oriented). SCHNELLER und gedrehter KURZ)[6], BRISK(Binärer robuster invarianter skalierbarer Schlüsselpunkt)[7], FREAK(Schneller Retina-Schlüsselpunkt)[8] usw.

Bevor Deep Learning populär wurde, waren diese handgefertigten Funktionen führend in der gesamten Computational Vision-Branche. Bis heute werden diese Funktionen häufig in Szenarien verwendet, in denen es an gekennzeichneten Daten mangelt und die viele Einschränkungen aufweisen. Im Folgenden finden Sie eine kurze Einführung in zwei häufig verwendete Deskriptoren.

Der SIFT-Deskriptor kann als eine der einflussreichsten Technologien in der Lebenslaufwelt angesehen werden. Aus Sicht der Schlüsselpunkterkennung wird die Differenz-Gauß-Methode (DoG) hauptsächlich verwendet, um Extrempunkte im Raum mit mehreren Maßstäben als Schlüsselpunkte zu erkennen. Babaud et al. [9] haben bewiesen, dass die Gaußsche Glättung der einzige verwendbare mehrskalige räumliche Glättungsfilterkern ist, der ausreichende theoretische Unterstützung für verwandte Methoden bietet. Warum kann eine solche Methode wichtige Merkmalspunkte finden?

Weil der Gaußsche Kern das Bild durch Unschärfe auf unterschiedliche Skalenräume skalieren kann und sich die Werte glatter Bereiche mit kleinen Farbverläufen in unterschiedlichen Skalenräumen ändern Die Lücke ist kleiner. Im Gegenteil, die Unterschiede sind in Bereichen wie Kanten, Punkten, Ecken und Texturen größer. Auf diese Weise können durch Differenzierung zwischen Bildern benachbarter Maßstäbe schließlich die Extrempunkte des Mehrmaßstabsraums berechnet werden. Allerdings liegen unterschiedliche Bilddetails naturgemäß in unterschiedlichen Maßstäben vor. Beispielsweise kann bei einem Porträt das Gesicht nach einer kleinen Unschärfe in einem Stück geglättet werden, während die Ecken des Rahmens möglicherweise eine Glättung in größerem Maßstab erfordern, um lokale „Extremwerte“ widerzuspiegeln.

Daher werden die Bilder, wie in Abb. 2 gezeigt, zunächst mithilfe der Bildpyramide gruppiert (Oktave), und in jeder Gruppe werden Gaußsche Kerne unterschiedlicher Maßstäbe verwendet, um eine Reihe von Schichten zu bilden. Diese Methode ist besser als die einfache Verwendung mehr Skalen von Gaußschen Kerneln und kann mehr Merkmalspunkte erkennen. Es ist zu beachten, dass SIFT zwar DoG zur Schlüsselpunkterkennung verwendet, andere Erkennungsmethoden jedoch ebenfalls möglich sind und keinen Einfluss auf die Einrichtung von SIFT-Deskriptoren haben.

Abbildung 2: Gaußsche Differenzmethode

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen FahrenSIFT-Feature-Point-Deskriptor kann als einfache statistische Version von HOG verstanden werden. Wie in Abb. 3 dargestellt, wird mit dem erkannten Schlüsselpunkt als Mittelpunkt ein umgebender 16 × 16-Bereich ausgewählt und der Bereich in vier 4 × 4-Patches neu organisiert. Für jeden Block wird ein 8-Bins-Histogramm verwendet, um den Gradienten zu zählen. Die Richtung des Gradienten bestimmt, in welches Bin er fällt, und das Modul des Gradienten bestimmt die Größe des Werts. Um die Skalenkonsistenz sicherzustellen, muss die Gradientengröße normalisiert werden. Um die Rotationsinvarianz sicherzustellen, wird eine Hauptrichtung basierend auf allen Gradienten im 16 × 16-Bereich berechnet und alle Gradienten werden entsprechend der Hauptrichtung gedreht. Das Ergebnis ist ein 4 × 4 × 8 128-dimensionaler Vektor.

Abbildung 3: SIFT-Deskriptor basierend auf Gradientenblockstatistiken vorgeschlagen Wie SURF, AKAZE usw., aber auch heute im Jahr 2019 ist es in einigen Szenarien immer noch schwierig, die Echtzeitanforderungen des Algorithmus zu gewährleisten. Beispielsweise verfügen Handheld-Geräte im Allgemeinen über eine begrenzte Rechenleistung. Beim autonomen Fahren müssen CPU- und GPU-Ressourcen gleichzeitig von mehreren rechenintensiven Modulen geplant werden. Daher ist die Effizienz ein wichtiger Indikator, um die Praktikabilität eines Algorithmus zu prüfen.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Um die Effizienz zu verbessern, haben Wissenschaftler einige binäre Deskriptoren vorgeschlagen. Im Allgemeinen führen diese Methoden Punktproben um Feature-Schlüsselpunkte herum durch. Dann wird die Graustufengröße eines Punktpaares verglichen und das Ergebnis als 0/1 ausgedrückt, wodurch ein N-dimensionaler binärer Beschreibungsvektor gebildet wird, der ein binäres Muster von Merkmalspunkten bildet. Der größte Unterschied zwischen verschiedenen binären Deskriptoren liegt hauptsächlich in den unterschiedlichen Merkmalsabtastmodi und den unterschiedlichen Methoden zur Punktpaarauswahl.

Abbildung 4: LBP-Deskriptor-Unterabtastungsmodus Wie in Abbildung 4 gezeigt, übernimmt der LBP-Deskriptor eine kreisförmige Abtastung um den Schlüsselpunkt und vergleicht sie mit der Grauskala des zentralen Schlüsselpunkts. Vergleichsoptionen . Die Ergebnisse des Graustufenvergleichs werden auf dem Ring angezeigt, wobei die schwarzen Punkte 0 und die weißen Punkte 1 sind. LBP ist die einfachste Form eines binären Deskriptors, während ORB die BRIEF-Funktion verbessert und derzeit ein häufig verwendeter binärer Deskriptor ist. Wie in Abb. 5 dargestellt, verwendet ORB bei der Auswahl von Punktpaaren eine Zufallsmethode, um lokale Details umfassender zu beschreiben, im Gegensatz zur einfachen Verwendung des Mittelpunkts. Allerdings ist die Korrelation zwischen Punktpaaren relativ groß, wodurch die Unterscheidungskraft des Deskriptors verringert wird. ORB verwendet direkt gierige und erschöpfende Methoden, um dieses Problem zu lösen und zufällige Punktpaare mit geringer Korrelation zu finden. Abbildung 5: Auswahlmodus für ORB-Deskriptor-Punktpaare Bereitstellung einer reguläreren binären Musterkonstruktionsmethode mit integrierten Skaleninformationen. Beispielsweise ahmt der FREAK-Deskriptor das visuelle Abtastmuster des menschlichen Auges nach. Wie in Abb. 6 dargestellt, ist der Wert jedes Abtastpunkts der mittlere Grauwert innerhalb des roten Kreises, und die blaue Linie stellt den Punktpaar-Auswahlplan dar.

Abbildung 6: FREAK-Deskriptor-Sampling, Punktpaarauswahlmodell

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen FahrenDie hohe Effizienz binärer Deskriptoren spiegelt sich hauptsächlich in drei Aspekten wider.

(1) Binäre Deskriptoren verwenden binäre Vektoren als Merkmalsbeschreibungen und müssen nur die Größe von Punktpaaren vergleichen, ohne spezifische Gradienten zu berechnen.

(2) Der Vergleich zwischen zwei Deskriptoren kann die Hamming-Distanz (Hamming-Distanz) verwenden, die schneller zu berechnen und einfacher zu optimieren ist.

(3) Da jeder Binärvektor einer Dezimalzahl entspricht, stellt er selbst auch ein Muster dar, ohne dass ein Histogramm zur Darstellung wie bei SIFT verwendet werden muss. Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Binäre Deskriptoren sind im Allgemeinen nicht so diskriminierend wie Deskriptoren der SIFT-Familie, aber in bestimmten Szenarien kann die Effizienz in Kombination mit paralleler Programmierung Dutzende oder sogar Hunderte Male höher sein und gleichzeitig ähnliche Unterscheidungsfähigkeiten gewährleisten.

3 Datenbankerstellung und -abfrage

Die Datenbank kann als Integration von Karte + Index verstanden werden. Karten können aus reinen 2D-Bildern, 3D-Punktwolkenkarten oder einer Kombination aus 2D-Bildern und 3D-Punktwolken bestehen. Bei der Generierung von 3D-Punktwolkenkarten wird hauptsächlich die dreidimensionale Rekonstruktionsmethode SfM (Structure from Motion) verwendet, um 3D-Informationen aus 2D-Zeitreihenbildern abzuleiten. Wenn eine binokulare RGB-D-Kamera Tiefe liefert, können genauere 3D-Punktinformationen erhalten werden. Es enthält auch einige Auswahlstrategien wie Keyframes. Die spezifischen Methoden gehen über den Rahmen dieses Artikels hinaus. Interessierte Schüler können die relevanten Informationen selbst überprüfen. Die Rolle der Datenbank ist:

Fragen Sie für ein Eingabebeobachtungsbild den Kartierungsverlauf (Bild/Punktwolke/Feature-Punkt) über die Datenbank ab, um den besten Wert zu erhalten des aktuellen Bildes Möglicherweise beobachtete Kartenteilmengen (Bilder/Punktwolken/Feature-Punkte), die Karte mit den Beobachtungsinformationen abgleichen, die Transformationsmatrix berechnen und die Pose der Beobachtungskamera ermitteln.

Index ist der Schlüssel zur Beschleunigung dieses Prozesses. Die Datenbanken selbst sind in der Regel riesig. Nehmen Sie als Beispiel den Testbetrieb des Beutelroboters von Meituan im zweiten Stock von Joy City in Chaoyang, Peking. Selbst nach der Vorführung wurden fast 80.000 Bilder im Format 900 × 600 verwendet. Angesichts der Echtzeitnatur der Positionierung ist es unmöglich, die Abfrage jedes Mal einzeln mit 80.000 Bildern zu vergleichen. Daher muss die Indexierungstechnologie verwendet werden, um den gesamten Algorithmus zu beschleunigen. Diese Technologie überschneidet sich stark mit Loopback-Tests bei SLAM, Bildabruf und Standorterkennung bei Vision. Im Folgenden werden nur allgemeine Methoden vorgestellt.

Es gibt mehrere Merkmalspunkte in einem Bild. Die Merkmalspunkte müssen zuerst codiert werden, z. B. mit der VLAD-Codierung (Vector of Local Aggregated Descriptors), und das Bild ist wird mithilfe lokaler Deskriptoren gebildet. Verwenden Sie dann Indizes wie kd-tree, um Abfragen auf Bildebene durchzuführen. Natürlich können Codierung und Indizierung auch gleichzeitig durchgeführt werden, z. B. das hierarchische Bag-of-Words-Modell (Bag-of-Words, BoW) + Vorwärtsindex + Rückwärtsindex-Methode.

VLAD-Kodierung
#🎜. 🎜#

VLAD (Vektor lokal aggregierter Deskriptoren) [10] ist, wie in Abb. 7 dargestellt, ein Codebuch (Codebuch), das durch Aggregation lokaler Deskriptoren gebildet wird und dessen Beschreibung durch Akkumulation berechnet wird Der Abstand zwischen dem Unterwort und dem Codewort (Word) ist eine einfache Methode zur globalen Codierung. Ein Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren Dimensionsdeskriptor Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren wird durch ein Codebuch von Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren Codewörtern codiert, A # 🎜🎜# Der Wert im Vektor ist der Deskriptor und das Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren Codewort im Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren #🎜🎜 # Dimensionsunterschied. Führen Sie dann eine Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren Normalisierung durch, um den endgültigen VLAD-Vektor zu bilden. Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 7: VLAD wird durch den Abstand zwischen dem Deskriptor und dem Codewort codiert#🎜 🎜#

DenseVLAD[11] und NetVLAD[12] sollten hier speziell vorgestellt werden. Torii et al. haben bewiesen, dass DenseSIFT Standard-SIFT bei beiden Abfrageabgleichen übertrifft. DenseVLAD extrahiert SIFT-Punkte auf vier Skalen in einem gitterartigen Abtastmuster mit 2-Pixel-Intervallen. Stichproben Sie weltweit zufällig 25 Millionen Deskriptoren ab und verwenden Sie den K-Means-Algorithmus, um ein Codebuch mit 128 Codewörtern zu generieren. Der VLAD-Vektor wird nach der Normalisierung mithilfe der PCA (Hauptkomponentenanalyse) dimensional reduziert, um den endgültigen 4096-dimensionalen DenseVLAD-Vektor zu bilden. Wie in Abb. 8 dargestellt, ist die Anzahl der inneren Punkte (grün) nach dem Abgleich mit DenseSIFT größer.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 8: DenseSIFT- und Standard-SIFT-Feature-Punkte, Vergleich der inneren Punkte (grün) danach Matching

NetVLAD fügt Überwachungsinformationen zu VLAD hinzu, um die Unterscheidbarkeit der VLAD-Codierung zu verbessern. Nehmen Sie, wie in Abb. 9 dargestellt, an, dass die beiden Deskriptoren Rot und Grün von zwei Bildern stammen, die nicht zusammenpassen sollten. Da beide einen größeren Radius und einen ähnlichen Abstand vom VLAD-Zentrum (×) haben, sind ihre codierten Werte nach der L2-Normalisierung sehr ähnlich. Nach dem Hinzufügen der Überwachungsinformationen, dass die Bilder, die den roten und grünen Deskriptoren entsprechen, nicht übereinstimmen, kann der von NetVLAD generierte Mittelpunkt (★) die beiden Deskriptoren besser unterscheiden und ihre codierte Abstandsdifferenz (Radius) erhöhen.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 9: NetVLAD-Clusterzentrum (×) und VLAD-Clusterzentrum (★) Vergleichen # ?? 🎜 #

Feature Encoding und seine Designideen basierend auf dem Bag-of-Words-Modell BoW [13, 14] spielen eine entscheidende Rolle bei der Entwicklung von Computer Vision und Wille hier nicht besprochen werden. In diesem Artikel wird als Beispiel ein 2D-Abfragebildabgleich mit einer 2D-Bilddatenbank verwendet, um ein gemeinsames integriertes BoW-Kodierungs- und Indizierungsmodell vorzustellen. Wie in Abb. 10 gezeigt, wird das Wörterbuch (Vokabular) mithilfe einer hierarchischen Methode generiert. Für alle Deskriptoren im Datensatz wird der Raum gemäß einer Baumstruktur unterteilt und jede Ebene wird durch k-Mittel-Clustering berechnet. Die letzten Blattknoten entsprechen Codewörtern (in Abb. 10 gibt es 9 Codewörter).
Abbildung 10: Hierarchisches BoW-Modell mit Forward-Index und Reverse-Index#🎜🎜 ##🎜 🎜#

Der Baumkonstruktionsprozess ist eigentlich der Prozess der Kodierung des Originalbilds. Die Kodierung selbst beschleunigt den Suchvorgang jedoch nicht. Ähnlich wie bei VLAD muss sie dennoch einzeln mit den Bildern in der Datenbank verglichen werden. Daher wird hier ein inverser Index (Inversindex) entworfen, der keinen Vergleich der codierten Vektoren erfordert. Das Prinzip ist in Abb. 11 dargestellt. Für ein Abfragebild (Query Image) wird der extrahierte Deskriptor in BoW eingegeben und fällt schließlich in den Codewort-Blattknoten (Visual Word) k.

Jedes Codewort entspricht einem Index, der das Gewicht des Codeworts Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren bis zum Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahrenten Bild in der Datenbank Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren aufzeichnet (Abb. 10). Hier wird das Gewicht mithilfe von TF-IDF (Termhäufigkeit–inverse Dokumenthäufigkeit) berechnet. Das heißt, wenn ein Wort Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren häufig in einem bestimmten Bild Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren vorkommt und in anderen Bildern selten vorkommt, dann hat dieses Wort eine bessere Bildunterscheidbarkeit und einen höheren Gewichtungswert Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren. Abschließend wird das passende Bild über den Abstimmungsmechanismus ausgewählt. Es sollte auch beachtet werden, dass der umgekehrte Index nicht unbedingt auf dem baumstrukturierten BoW basiert, sondern lediglich eine Methode zur schnellen Abfrage bereitstellt.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 11: Über den Rückwärtsindex + Abstimmungsmechanismus das Bild direkt abfragen

Die Funktion des Vorwärtsindex (Direktindex) besteht hauptsächlich darin, die charakteristischen Punkte des Datenbankbilds aufzuzeichnen, wenn Erstellen des BoW. Welche Knoten wurden eingegeben, sodass bei der Bildabfrage keine Berechnung der Merkmalspunkte erforderlich ist und die Merkmalspunkte direkt über den Index extrahiert werden können. 3D-Punktwolkenabfrage Die Abfrage von 3D-Punktwolken unterliegt keinen solchen Einschränkungen und weist daher viele Schwierigkeiten auf. Wenn Sie räumliche Kontinuität berücksichtigen müssen, ob alle abgefragten Punkte innerhalb des beobachtbaren Bereichs liegen usw. Hier stellen wir nur die von Sattler auf der TPAMI 2016 veröffentlichte Methode [15] vor. Nach Jahren des Polierens ist dieses Methodengerüst relativ einfach und vollständig. Da sich die Suchschritte der Wörterbuchkodierung mit dem Inhalt im vorherigen Abschnitt überschneiden, werden hier nur die beiden Mechanismen der aktiven Suche und der Sichtbarkeitsfilterung vorgestellt.

Die aktive Suche dient hauptsächlich dazu, die übereinstimmenden 3D-Punkte so nah wie möglich im Raum zu platzieren und eine geometrische Bedeutung zu haben. Wie in Abb. 12 dargestellt, wird der rote Punkt durch eine Reihe von Kodierungs- und Verfeinerungsprozessen einem Punkt in der Punktwolke zugeordnet (rote Linie). Gemäß dem vorgeschlagenen Priorisierungsrahmen wird ein 3D-Punkt mit der höchsten Wahrscheinlichkeit aus der Punktwolke gefunden und umgekehrt (blaue Linie) mit einem entsprechenden 2D-Punkt im Abfragebild übereinstimmt.
Abbildung 12: Aktive Suche

Abbildung 13: Sichtbarkeitsfilterung

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Sichtbarkeitsfilterung dient hauptsächlich dazu, die übereinstimmenden Punkte so weit wie möglich für die Kamera sichtbar zu machen (die Positionierung erfolgt unbeaufsichtigt und es ist nicht möglich zu wissen, ob die übereinstimmenden Punkte korrekt sind). Die hier angewandte Methode besteht darin, ein zweiteiliges Sichtbarkeitsdiagramm zu erstellen, wenn SfM zum Erstellen einer 3D-Punktwolkenkarte verwendet wird. Wie in Abb. 13 (links) dargestellt, entsteht eine topologische Beziehung, wenn ein Punkt gleichzeitig von zwei Kameras beobachtet werden kann. In Abb. 13 (Mitte) handelt es sich bei den blauen Punkten um übereinstimmende Punkte, die aus Beobachtungsperspektive widersprüchlich sind. Durch die Durchführung von Graph-Clustering auf der vorhandenen Topologie werden Kameras in zwei Gruppen gruppiert, wie in Abb. 13 (rechts) dargestellt. Auf diese Weise können neue graphtopologische Beziehungen generiert werden. Anschließend filtern wir die Punkte heraus, die mit hoher Wahrscheinlichkeit unsichtbar sind, indem wir die Überlappung zwischen den einzelnen Unterdiagrammen beurteilen.

Es ist zu beachten, dass Fernglaskameras und RGB-D-Kameras zwar Tiefe ermitteln können und durch Abfragen von 2D-Bildern innerhalb eines begrenzten Bereichs auch 3D-Merkmalspunktkoordinaten ermittelt werden können, Innenmaterialien jedoch aufgrund aktueller technischer Einschränkungen komplex und im Freien groß sind Bei maßstabsgetreuen Szenen ist die Tiefe nicht zuverlässig. Daher ist der Abgleich von 2D-Bildpunkten und 3D-Punktwolkenkarten immer noch eine wichtige Methode.

4 Feature-Point-Matching

Der Feature-Point-Matching-Prozess kann in Datenbankabfragen adaptiv abgeschlossen werden, was vor allem bei Abfragen auf der Grundlage von 3D-Strukturen der Fall ist. Das Matching kann auch separat nach der Abfrage durchgeführt werden, was bei 2D-bildbasierten Abfragen häufiger vorkommt. Der Zweck des Merkmalsabgleichs besteht darin, passende Punktpaare für nachfolgende Transformationsmatrixberechnungen bereitzustellen, um eine Posenberechnung zu erreichen.

Klassischer RANSAC

Random Sample Consensus Algorithm (RANSAC) [16] ist ein klassischer Datenfilterungs- und Parameteranpassungsalgorithmus. Es geht davon aus, dass die Verteilung der Daten (Inliers) einem bestimmten mathematischen Modell entspricht, und entfernt durch iterative Berechnungen Ausreißer und Rauschpunkte und erhält gleichzeitig die besten Modellparameter hinsichtlich der Wahrscheinlichkeit. Bei der globalen Positionierung beziehen sich innere Punkte auf korrekte Übereinstimmungen, äußere Punkte auf falsche Übereinstimmungen und das parametrische Modell bezieht sich auf die räumliche Transformationsmatrix der übereinstimmenden Punktpaare. Wie in Abb. 14 gezeigt, ist die Übereinstimmung nach der Optimierung durch den RANSAC-Algorithmus sinnvoller. Die passende Teilmenge, die RANSAC zu finden erwartet, muss zwei Indikatoren erfüllen: Der Fehler bei der Neuprojektion der inneren Punkte ist so klein wie möglich; die Anzahl der inneren Punkte ist so groß wie möglich. Der grundlegende Prozess ist also wie folgt:

  • ① Probenahme der ersten Teilmenge.
  • ② Berechnen Sie die Transformationsmatrix.
  • ③ Berechnen Sie den Reprojektionsfehler des Übereinstimmungspunkts gemäß der Transformationsmatrix.
  • ④ Punkte mit großen Fehlern entfernen
  • ⑤ Schleife ①-④, um die passende Lösung beizubehalten, die dem Index am besten entspricht.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 14: (Oben) Original-Feature-Matching; (Unten) Matching optimiert durch den RANSAC-Algorithmus

Unter diesen wird das anfängliche Kandidaten-Matching basierend auf dem Abstand zwischen Deskriptoren generiert. Der Reprojektionsfehler bezieht sich nur auf die räumliche Position der Schlüsselpunkte und hat nichts mit dem Deskriptor selbst zu tun. Informationen zur spezifischen Projektionsmatrixmethode finden Sie unter „2.4 Posenberechnung“. Es sollte darauf hingewiesen werden, dass der RANSAC-Algorithmus durch den ursprünglichen Übereinstimmungsfehler und die Parameterauswahl beeinflusst wird. Er kann nur sicherstellen, dass der Algorithmus eine ausreichend hohe Wahrscheinlichkeit hat, um angemessen zu sein, aber möglicherweise nicht unbedingt das optimale Ergebnis erzielen. Zu den Algorithmusparametern gehören hauptsächlich der Schwellenwert und die Anzahl der Iterationen. Die Wahrscheinlichkeit, dass RANSAC ein glaubwürdiges Modell erhält, ist direkt proportional zur Anzahl der Iterationen, und die Anzahl der erhaltenen Übereinstimmungen ist umgekehrt proportional zum Schwellenwert. Daher kann es im tatsächlichen Einsatz erforderlich sein, wiederholt verschiedene Parametereinstellungen auszuprobieren, um bessere Ergebnisse zu erzielen.

Wissenschaftler haben viele Verbesserungen am klassischen RANSAC-Algorithmus vorgenommen. Wie in Abb. 15 gezeigt, wird das Strukturdiagramm des globalen RANSAC (Universal-RANSAC) [17] vorgeschlagen, das eine universelle RANSAC-Architektur bildet, die fast alle RANSAC-Verbesserungen abdeckt B. Vorfilterung, Stichprobenentnahme mit minimalen Teilmengen, zuverlässige Modellgenerierung aus minimalen Teilmengen, Parameterüberprüfung und Modellverfeinerung.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 15: Universal-RANSAC-Universalalgorithmus-Framework

Differenzierbares RANSAC

Da manuelle Deskriptoren im Bereich der Positionierung immer noch eine hohe Leistung erbringen, haben einige Wissenschaftler damit begonnen, den Einsatz von Deep Learning zu untersuchen, um bestimmte Teile des Algorithmus-Frameworks zu ersetzen, anstatt End- End-to-End-Deskriptoren Das End-to-End-Posenschätzungsmodell ersetzt herkömmliche Methoden vollständig. Differenzierbares RANSAC (DSAC) [18] zielt darauf ab, die deterministische Hypothesenauswahl durch eine probabilistische Hypothesenauswahl zu ersetzen, sodass der RANSAC-Prozess abgeleitet werden kann. Der Prozess ist in Abb. 16 dargestellt, in dem der Schritt „Bewertung“ immer noch Reprojektionsfehler verwendet Indikator, der Unterschied besteht darin, dass der Fehler auf dem gesamten Bild und nicht auf Merkmalspunkten basiert und der ursprüngliche Prozess der Überprüfung der Merkmalspunktübereinstimmung durch einen Prozess der direkten Überprüfung der Kamerapositionshypothese h mit Wahrscheinlichkeit ersetzt wird. Obwohl die aktuelle Methode relativ große Einschränkungen aufweist, bietet DSAC eine praktikable Idee, wie Vorkenntnisse zum aktuellen Rahmen für unbeaufsichtigte Positionierungsalgorithmen hinzugefügt werden können. Abbildung 16: Differential-RANSAC-Algorithmus-Framework durch geometrische Zwänge. Da die Punktkoordinaten in der Datenbank und die Kameraposition zum Zeitpunkt der Abtastung bekannt sind, kann die aktuelle Kameraposition durch Anpassen der Transformationsmatrix des Punktes an den Kartenpunkt ermittelt werden. Hier werden einige grundlegende Symbole definiert. Die internen Parameter der Kamera sind

und die homogene Form des Transformationsmoments Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

ist: wobei , die Rotationsmatrix und die Translationsmatrix ist. 2.4.1 Berechnung der 2D-2D-Transformationsmatrix Ihre Koordinaten auf der normalisierten Ebene sind (), und die entsprechende Transformationsmatrix muss durch epipolare Einschränkungen berechnet werden. Wie in Abb. 17 gezeigt, besteht die geometrische Bedeutung darin, dass die drei Flächen koplanar sind, auch Polarebene genannt,

Grundlinie und

Polarlinie. Die epipolare Einschränkung umfasst sowohl Translation als auch Rotation, definiert als: Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Unter diesen ist Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren die Koordinate von Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren auf der normalisierten Ebene und ∧ der äußere Produktoperator. Wenn wir den mittleren Teil der Formel als Basismatrix Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren und als essentielle Matrix Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren zählen, erhalten wir:

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Da die essentielle Matrix Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren keine Skaleninformationen hat, wird E mit multipliziert jede Konstante ungleich Null, um die Polarität zu erhalten. Die Einschränkungen gelten weiterhin. Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren kann mit dem klassischen 8-Punkte-Algorithmus (Acht-Punkte-Algorithmus) gelöst und dann zerlegt werden, um Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren, Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren zu erhalten. Daher ist ersichtlich, dass die 2D-2D-Transformationsmatrix-Lösungsmethode zwei Mängel aufweist. Erstens weist das monokulare Sehen Skalenunsicherheit auf und die Skaleninformationen müssen von Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren bei der Initialisierung bereitgestellt werden. Dementsprechend kann die monokulare Initialisierung nicht nur eine reine Rotation sein, sondern muss einen ausreichenden Übersetzungsgrad aufweisen, da sonst Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren Null wird.

2D-3D-Transformationsmatrixberechnung

2D-3D-Matching ist eine wichtige Methode bei der Posenschätzung. Im Allgemeinen wird die PnP-Methode verwendet, dh die 2D-3D-Übereinstimmungspunkte sind bekannt und die Transformationsmatrix wird gelöst, um die Kameraposition zu erhalten. Wir projizieren den 3D-Punkt P(X, Y, Z) auf die Bildebene der Kamera (Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren): Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Darunter ist Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren die Skala, Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren. Die Lösung dieser Gleichung kann auf ein lineares Gleichungsproblem reduziert werden, und jedes Merkmal kann zwei lineare Einschränkungen bereitstellen: #Auf diese Weise können mindestens 6 Paare von Übereinstimmungspunkten gelöst werden, und wenn die Anzahl der Übereinstimmungspunkte größer als 6 ist , Methoden wie SVD können verwendet werden, um das Problem durch die Konstruktion kleinster Quadrate zu lösen. Die P3P-Methode kann als Sonderlösung der PnP-Methode betrachtet werden. Wie in Abb. 18 dargestellt, nutzt sie die Ähnlichkeitseigenschaften von Dreiecken, um weitere Einschränkungen hinzuzufügen, und benötigt zur Lösung des Problems nur drei Punktpaare. Andere Lösungsmethoden umfassen die direkte lineare Transformation (DLT), die EPnP-Methode (Efficient PnP) und die UPnP-Methode (Unkalibriertes PnP) usw. Im Vergleich zu den oben genannten linearen Optimierungsmethoden werden auch nichtlineare Optimierungsmethoden wie Bundle Adjustment (BA) häufig verwendet. Die BA-Methode ist eine Art „Einheitslösung“ im visuellen SLAM. Sie kann mehrere Variablen gleichzeitig optimieren, wodurch die durch lokale Fehler verursachte Systeminstabilität bis zu einem gewissen Grad gemindert werden kann Relevante Informationen für ein tieferes Verständnis.

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Abbildung 18: P3P-Methode in der 2D-3D-Transformationsmatrixberechnung

# 🎜 🎜#

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

3D-3D-Transformationsmatrixberechnung

# 🎜 🎜#Die Transformationsmatrix zwischen 3D-Punkten kann mithilfe des iterativen Closest-Point-Algorithmus (ICP) gelöst werden. Unter der Annahme, dass die Punktpaarübereinstimmung () korrekt ist, sollte die erhaltene Transformationsmatrix den Neuprojektionsfehler
minimieren. Sie können SVD verwenden, um das Problem der kleinsten Quadrate zu lösen:

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren oder verwenden Sie die nichtlineare Optimierungsmethode Bundle basierend auf der Lie-Algebra Die Anpassung löst nach Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

, wobei

die Kameraposition darstellt. Das Optimierungsziel ähnelt hier der Bündelanpassung beim 2D-3D-Matching, es besteht jedoch keine Notwendigkeit, die kamerainternen Parameter

Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren zu berücksichtigen, da das Original durch die binokulare Kamera transformiert wurde oder RGB-D-Tiefenkamera. 2D-Punkte auf dem Bild werden von der Kamerabildebene in die 3D-Welt projiziert.

Das ICP-Problem hat nachweislich eine einzigartige Lösung und unendlich viele Lösungen. Wenn es eine eindeutige Lösung gibt, entspricht die Optimierungsfunktion daher einer konvexen Funktion, und der Minimalwert ist die globale optimale Lösung. Unabhängig von der Art der Initialisierung kann diese eindeutige Lösung erhalten werden. Dies ist einer der großen Vorteile der ICP-Methode. Analyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren

In diesem Artikel wird der Posenschätzungsalgorithmus basierend auf Merkmalspunkten aus vier Aspekten vorgestellt: Bildbeschreibung, Zuordnungsabfrage, Merkmalsabgleich und Posenberechnung. Obwohl die traditionelle visuelle globale Positionierungsmethode in praktischen Anwendungen immer noch die erste Wahl ist, basiert die traditionelle Methode auf der Prämisse, dass die Merkmalspunkte korrekt definiert, korrekt extrahiert, korrekt abgeglichen und korrekt beobachtet werden. Diese Prämisse ist für die Vision sehr wichtig selbst. Es ist eine große Herausforderung. Zweitens erfordert die traditionelle Methode ein mehrstufiges Framework und keine End-to-End-Methode. Daher sind für jede Verbindung und die Interaktion zwischen Verbindungen zahlreiche Parameteranpassungen erforderlich, und die Technologie jeder Verbindung kann als separate Forschungsrichtung verwendet werden. In der tatsächlichen Anwendung müssen viele Tricks für bestimmte Szenarien hinzugefügt werden, was das Engineering komplexer macht.

Und die Erwartungen der Menschen an die End-to-End-Methode haben zu Netzwerken wie PoseNet, VLocNet, HourglassNet usw. geführt, die bei Benchmarks gute Ergebnisse erzielt haben. Der Autor ist der Ansicht, dass es bei der aktuellen End-to-End-Methode immer noch viele Probleme gibt. Die Hauptprobleme sind, dass der Verlustfunktion geometrische Einschränkungen fehlen und der Posenraum mit 6 Freiheitsgraden beim Erstellen der Karte nicht kontinuierlich ist. und es ist schwierig, eine gute Zuordnung mit dem Eingaberaum zu erstellen, und es mangelt an entsprechender Positionshaltungsregression, Verfeinerungsmechanismus usw. Es lässt sich nicht leugnen, dass Deep Learning als leistungsfähigstes Modellierungswerkzeug für den nichtlinearen Raum in Zukunft verstärkt im Bereich der Positionierung auftauchen wird.

Zurück zur visuellen Positionierung selbst, denn die wichtigsten Vorteile des Sehens sind niedrige Kosten, reichhaltige Semantik und wenige Einschränkungen bei den Nutzungsszenarien. Daher werden Positionierungsfusionslösungen, die sich auf das Sehen konzentrieren und durch andere kostengünstige Sensoren ergänzt werden, auch in Zukunft ein wichtiges Thema sein.

Das obige ist der detaillierte Inhalt vonAnalyse der globalen Positionierungstechnologie basierend auf Merkmalspunkten beim autonomen Fahren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen