Heim > Artikel > Technologie-Peripheriegeräte > Wie führt man eine Bildsuche effizient und genau durch? Schauen Sie sich das vorab trainierte Lightweight-Vision-Modell an
Hatten Sie jemals Probleme beim Abrufen von Bildern?
Entweder ist es schwierig, das gewünschte Bild in der riesigen Menge an Bildern genau zu finden, oder es kann zu unbefriedigenden Ergebnissen bei der textbasierten Suche kommen. In Bezug auf dieses Problem führten Forscher von Microsoft Research Asia und der Microsoft Cloud Computing and Artificial Intelligence Division eingehende Untersuchungen zu leichten visuellen Modellen durch und schlugen eine Reihe von Entwurfs- und Komprimierungsmethoden für visuelle Vortrainingsmodelle vor, um die Anforderungen an die visuelle Lightweight-Bereitstellung zu realisieren .
Aktuell wurden diese Methode und dieses Modell erfolgreich auf die Bing-Suchmaschine von Microsoft angewendet, wodurch eine genaue und schnelle Schlussfolgerung und der Abruf von zig Milliarden Bildern erreicht wurde. In diesem Artikel werden die Entwicklung, Schlüsseltechnologien, Anwendungen und Potenziale von leichten visuellen Vortrainingsmodellen sowie zukünftige Chancen und Herausforderungen ausführlich erläutert. Ich hoffe, dass jeder den Bereich des leichten visuellen Vortrainings besser verstehen kann gemeinsam die Entwicklung verwandter Technologien vorantreiben.
In letzter Zeit haben Transformer-basierte visuelle Pre-Training-Modelle bei vielen Computer-Vision-Aufgaben eine überlegene Leistung erzielt und große Aufmerksamkeit erhalten. Visuelle Transformer-Vortrainingsmodelle weisen jedoch normalerweise große Parameter und eine hohe Komplexität auf, was ihre Bereitstellung und Verwendung in praktischen Anwendungen einschränkt, insbesondere in Geräten mit eingeschränkten Ressourcen oder in Szenarien mit hohen Echtzeitanforderungen. Daher ist die Forschung zur „Leichtgewichtung“ großer visueller Pre-Training-Modelle zu einem neuen heißen Thema in Wissenschaft und Industrie geworden.
In diesem Zusammenhang führten Forscher von Microsoft Research Asia und der Microsoft Cloud Computing and Artificial Intelligence Division eine eingehende Untersuchung des strukturellen Designs und der Trainingsinferenz großer visueller Modelle durch und konzentrierten sich dabei auch auf die Leichtbau- und Echtzeitleistung von Große Modelle und die Cloud-Bereitstellung haben auch innovative Anwendungen hervorgebracht. Dieser Artikel beginnt mit der Entwicklung leichter visueller Pre-Training-Modelle, untersucht die Schlüsseltechnologien in der Modell-Leichtbauforschung sowie die Anwendung und das Potenzial leichter visueller Transformer-Modelle in tatsächlichen Produkten und blickt schließlich auf die zukünftigen Entwicklungsmöglichkeiten und -aussichten von leichte visuelle Herausforderung.
In den letzten Jahren hat der Fortschritt des Deep Learning bei ImageNet-Bildklassifizierungsaufgaben hauptsächlich von der erheblichen Erweiterung der Kapazität profitiert von visuellen Modellen. Wie in Abbildung 1 dargestellt, hat sich die Kapazität visueller Pre-Training-Modelle in nur wenigen Jahren um mehr als das 300-fache erweitert, vom ResNet-101-Modell mit 44,5 Millionen Parametern bis zum V-MoE-Modell mit 15 Milliarden Parametern Große visuelle Vortrainingsmodelle Trainingsmodelle haben große Fortschritte bei Aufgaben wie dem Bildverständnis und der Generierung visueller Inhalte gemacht.
Abbildung 1: Änderungstrenddiagramm der Parameter des visuellen Pre-Training-Modells
Ob es sich um das 3-Milliarden-Parameter-Swin-V2-Modell von Microsoft oder das von Google veröffentlichte 1,8-Milliarden-Parameter-ViT-G/14-Modell handelt, Große visuelle Modelle haben bei vielen Aufgaben eine überlegene Leistung gezeigt, insbesondere ihre leistungsstarken Small-Shot- (Few-Shot-) und sogar Zero-Shot-Generalisierungsfähigkeiten (Zero-Shot), die für das Erreichen allgemeiner Intelligenz von entscheidender Bedeutung sind.
In vielen praktischen Szenarien ist es jedoch aufgrund begrenzter Speicher- und Rechenressourcen schwierig, große Modelle direkt bereitzustellen oder die Echtzeitanforderungen nicht zu erfüllen. Daher ist die Forschung an leichten visuellen Pre-Training-Modellen immer wichtiger geworden und hat einen hohen praktischen Anwendungswert. Obwohl es derzeit einige Arbeiten zur Erforschung leichtgewichtiger Modelle gibt, sind die meisten dieser Methoden für bestimmte Aufgaben und spezifische Strukturen konzipiert. Die Vielseitigkeit des Modells wird während des Entwurfs- und Trainingsprozesses nicht berücksichtigt, und es gibt Einschränkungen bei der Verallgemeinerung.
Um leichte visuelle Pre-Training-Modelle zu realisieren, entdeckten Microsoft-Forscher zwei Schlüsselprobleme: 1) Wie kann eine vielseitigere, leichte Modellstruktur entworfen werden? 2) Wie kann man angesichts der begrenzten Kapazität leichter visueller Pre-Training-Modelle effiziente Pre-Training-Methoden entwerfen, damit kleine Modelle effektive Informationen aus großen Datenmengen lernen können? Angesichts dieser Probleme haben Forscher durch unermüdliche Forschung und Erkundung erste Ergebnisse erzielt.
Denn der Kern der Verbesserung der Vielseitigkeit leichter vorab trainierter Modelle liegt darin, die Lernfähigkeit des Modells unter der Bedingung begrenzter Ressourcen (Parametermenge, Verzögerung usw.) zu stärken, damit es besser lernen kann In großen Datenmengen führten die Forscher daher eine eingehende Untersuchung aus den folgenden drei Perspektiven durch:
Leichte Module mit geringer Latenz sind ein wichtiger Bestandteil von Leichtbaumodellen. In Faltungs-Neuronalen Netzen gehören zu den repräsentativen leichten Modulen der Inverted Residual Block von MobileNet und die Kanal-Zufalls-Crossover-Einheit (Shuffle Unit) von ShuffleNet. Da in der visuellen Transformer-Struktur die Aufmerksamkeitsberechnung zwischen Bildblöcken die Informationen zur relativen Positionskodierung nicht gut berücksichtigt, haben die Forscher eine leichtgewichtige Plug-and-Play-Methode für die relative Positionskodierung von zweidimensionalen Bildern iRPE entwickelt [1]. die Leistung des Modells ohne Änderung von Trainingshyperparametern. Um das Problem der Redundanz der visuellen Transformer-Parameter anzugehen, haben Forscher außerdem das Weight Multiplexing-Modul entwickelt [2]. Wie in Abbildung 2 dargestellt, reduziert diese Methode die Redundanz von Modellparametern durch mehrschichtige Wiederverwendung von Gewichten und führt nicht gemeinsam genutzte lineare Transformationen ein, um die Parametervielfalt zu erhöhen. Abbildung 2: Gewichtsmultiplexmodul in Transformer Leistung [3]. Zu den repräsentativen Werken im Bereich Faltungs-Neuronale Netze gehören NASNet und EfficientNet. Bei der Suche nach visuellen Transformer-Strukturen haben Forscher nacheinander AutoFormer [4] und S3 [5] für mehrere Dimensionen wie Kanalbreite, Netzwerktiefe und Anzahl der Köpfe im visuellen Modell vorgeschlagen und so ein dynamisches skalierbares Training und die Skalierbarkeit des visuellen Modells realisiert . Struktursuche. Bei gleicher Modellgenauigkeit weist das durch die Suche erhaltene neue Modell eine geringere Anzahl von Parametern und Berechnungen auf. Es ist erwähnenswert, dass die Forscher in S3 den E-T-Fehler [5] und das Weight-Sharing-Supernet verwendet haben, um den Suchraum zu steuern und zu verbessern. Während sie eine effizientere Modellstruktur erhielten, analysierten sie auch den Entwicklungsprozess des Suchraums, wie in Abbildung dargestellt 3 dargestellt. Gleichzeitig bietet der Prozess der Modellstruktursuche effektive Designerfahrung und Referenz für den Entwurf von Leichtbaumodellen. Abbildung 3: Entwicklungsprozess des Suchraums für leichte Modelle Es ist schwierig, die reichhaltigen Informationen und das Wissen, die in großen Datenmengen enthalten sind, direkt zu erlernen. Um dieses Problem zu lösen, haben Forscher ein schnelles Destillationsschema vor dem Training vorgeschlagen, um das Wissen großer Modelle auf leichte kleine Modelle zu übertragen [6]. Wie in Abbildung 4 dargestellt, ist die schnelle Destillation vor dem Training im Gegensatz zur herkömmlichen einstufigen Wissensdestillation in zwei Phasen unterteilt: 1) Komprimieren und Speichern der im Trainingsprozess des großen Modells verwendeten Datenerweiterungsinformationen und Vorhersageinformationen; Nachdem die Vorhersageinformationen und Daten des großen Modells erweitert wurden, wird das große Modell als Lehrer verwendet, um das Lernen und Trainieren leichter Schülermodelle durch Destillation vor dem Training zu leiten. Anders als beim Beschneiden und Quantisieren verwendet diese Methode die oben erwähnte Wiederverwendung von Gewichten [2], die auf der Gewichtsteilung basiert. Durch die Einführung einer leichten Gewichtstransformation und -destillation wird das große visuelle Modell vor dem Training erfolgreich komprimiert und ein universelleres, robusteres, leichtes Modell erhalten. Mit dieser Methode kann das ursprüngliche große Modell Dutzende Male komprimiert werden, ohne dass die Leistung darunter leidet.
Abbildung 4: Schnelle Wissensdestillation vor dem Training
Anwendung eines leichten visuellen Pre-Training-Modells
Leichte visuelle Pre-Training-Modelle haben viele praktische Anwendungen, insbesondere in Szenarien mit hohen Echtzeitanforderungen oder Ressourcenbeschränkungen, wie zum Beispiel: Echtzeit-Rendering und -Verbesserung von Cloud-Videos, End-to-End-Bildtests und Verständnis von Videoinhalten . Leichte visuelle Modelle haben breite Anwendungsaussichten im intelligenten Einzelhandel, in der fortschrittlichen Fertigung und in anderen Bereichen gezeigt und werden in Zukunft eine wichtige Rolle in aufstrebenden Branchen wie Metaverse und autonomem Fahren spielen. Am Beispiel der Bildinhaltssuche im Bing-Produkt von Microsoft wird Ihnen im Folgenden die praktische Anwendung und Bereitstellung leichter visueller Modelle gezeigt.
Gegenwärtig ist die inhaltsbasierte Bildsuche relativ ausgereift, um die Kategorieattribute von Bildern zu verstehen, aber es gibt immer noch große Herausforderungen, den Inhalt komplexer Szenen zu verstehen. Bilder komplexer Szenen weisen in der Regel Merkmale wie große Schärfentiefe, unübersichtliche Hintergründe, viele Charaktere und komplexe Objektbeziehungen auf, die das Verständnis des Inhalts erheblich erschweren und somit höhere Anforderungen an die Robustheit und Generalisierung vorab trainierter Modelle stellen.
Zum Beispiel kann die Suchqualität von Anime-Bildern lange Zeit nicht effektiv verbessert werden. Zu den größten Herausforderungen gehören: Mallinien und Farben sind übertriebener als echte Szenenbilder, enthalten mehr Aktionen und Szenen, verschiedene Comics großer Unterschied in Stil und Inhalt. Die Abbildungen 5 bis 7 zeigen jeweils drei verschiedene Zeichentrickfiguren und Verhaltensweisen von „Slam Dunk“, „Pikachu“ und „Captain“. Ihre Comic-Stile und Inhalte sind sehr unterschiedlich. Das effektive Verständnis des Inhalts von Comic-Bildern stellt höhere Anforderungen an visuelle Vorschulungsmodelle.
Abbildung 5: In der Microsoft Bing-Suchmaschine umfasst das Verständnis der Aktionen des Slam Dunk Masters: Eintauchen, Dribbeln, Stehlen, Schießen usw.
Abbildung 6: In Microsoft Bing In der Suchmaschine, das Verständnis von Pikachus Verhalten ist wie Äpfel essen, Wassermelone essen, Eis essen usw.
Abbildung 7: In der Microsoft Bing-Suchmaschine eine Nahaufnahme der Schießaktion des Fußballspielers
oben Das oben erwähnte leichte visuelle allgemeine Modell und der schnelle Destillationsalgorithmus vor dem Training wurden erfolgreich in der Bing-Suchmaschine von Microsoft eingesetzt. Mit Hilfe des von Microsoft Research Asia bereitgestellten multimodalen Pre-Training-Modells für visuelle Sprache verbessert die Bing-Bildsuchfunktion von Microsoft das Verständnis von Comic-Inhalten und kann Bildinhalte zurückgeben, die den Benutzeranforderungen besser entsprechen.
Gleichzeitig stellt die riesige Indexbibliothek der Microsoft Bing-Suchmaschine sehr hohe Anforderungen an die Sucheffizienz. Die von Microsoft Research Asia bereitgestellte schnelle Destillationsmethode vor dem Training migriert die Indizierungsfunktionen des vorab trainierten großen Modells effektiv auf ein leichtes Modell, wodurch die Erkennungsgenauigkeit des vorhandenen Modells um 14 % verbessert und die Berechnungseffizienz erheblich optimiert wird , wodurch eine schnelle Argumentation auf zig Milliarden Bildern erreicht wird.
Modellleichtbau ist der Kern zukünftiger Anwendungen künstlicher Intelligenz. Da sich Bildverarbeitungstechnologie, Algorithmen, Rechenleistung und Daten immer weiter verbessern, hat die Komplexität der Modelle dramatisch zugenommen und der Energieverbrauch von Berechnungen neuronaler Netze ist immer teurer geworden. Die hohe Recheneffizienz und die geringen Bereitstellungs- und Anwendungskosten des leichten visuellen Modells können in Zukunft bei realeren Produkten von großem Vorteil sein. Darüber hinaus können lokalisierte, leichte, vorab trainierte visuelle Modelle Benutzerdaten und Privatsphäre besser schützen und gleichzeitig mehr Dienste unterstützen. Die Daten des Benutzers müssen das Gerät nicht mehr verlassen, sodass Remote-Upgrades von Funktionen wie Modelldiensten möglich sind.
Natürlich sind sich Forscher auch der Herausforderungen bewusst, mit denen leichte, vorab trainierte visuelle Modelle konfrontiert sind: Einerseits im Hinblick auf das Design der Modellstruktur, wie die optimale Lernfähigkeit des Modells unter den Einschränkungen der Modellanzahl erreicht werden kann Parameter und Inferenzverzögerungen waren schon immer Themen, denen Wissenschaft und Industrie große Aufmerksamkeit widmen. Obwohl viele effektive Modellstrukturen angesammelt wurden und in Bereichen wie dem Universal Approximation Theorem (UAT) und der Neural Network Structure Search (NAS) große Fortschritte erzielt wurden, gibt es immer noch Lücken zwischen den vorhandenen leichten, vorab trainierten visuellen Modellen und visuellen Großmodellen zwischen Modellen, die weiter optimiert und verbessert werden müssen. Andererseits haben Wissenschaft und Industrie in Bezug auf Trainingsmethoden verschiedene Trainingsmethoden wie Selbstüberwachung, Bildklassifizierung und Multimodalität für große visuelle Modelle vorgeschlagen, die die allgemeinen Fähigkeiten des Modells erheblich verbessert haben. Wie eine effektivere Trainingsmethode für leichte Modelle mit begrenzter Kapazität entwickelt werden kann, erfordert weitere Forschung und Erkundung. Die Forscher von Microsoft Research Asia werden weiterhin den wissenschaftlichen Forschungsfortschritt von leichten, vorab trainierten visuellen Modellen vorantreiben und weitere Technologiekollegen willkommen heißen, um verwandte Technologien in diesem Bereich zu kommunizieren und zu erforschen.
Das obige ist der detaillierte Inhalt vonWie führt man eine Bildsuche effizient und genau durch? Schauen Sie sich das vorab trainierte Lightweight-Vision-Modell an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!