Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt

NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt

PHPz
PHPznach vorne
2024-01-10 14:54:24514Durchsuche
In diesem NeurIPS23-Artikel schlugen Forscher der Universität Leuven, der National University of Singapore und des Institute of Automation der Chinesischen Akademie der Wissenschaften eine visuelle „Gehirnlesetechnologie“ vor, die die menschliche Gehirnaktivität mit hoher Auflösung analysieren kann Bild, das Sie mit Ihren eigenen Augen sehen.

Auf dem Gebiet der kognitiven Neurowissenschaften erkennen die Menschen, dass die menschliche Wahrnehmung nicht nur durch objektive Reize, sondern auch stark durch vergangene Erfahrungen beeinflusst wird. Diese Faktoren wirken zusammen, um eine komplexe Aktivität im Gehirn zu erzeugen. Daher wird die Dekodierung visueller Informationen aus der Gehirnaktivität zu einer wichtigen Aufgabe. Unter diesen spielt die funktionelle Magnetresonanztomographie (fMRT) als effiziente nicht-invasive Technologie eine Schlüsselrolle bei der Wiederherstellung und Analyse visueller Informationen, insbesondere der Bildkategorien. Aufgrund der Rauscheigenschaften von fMRT-Signalen und des Gehirnsehens Aufgrund der Komplexität der Darstellung steht diese Aufgabe vor erheblichen Herausforderungen. Um dieses Problem anzugehen, schlägt dieser Artikel ein zweistufiges fMRI-Darstellungs-Lernrahmen vor, der darauf abzielt, Rauschen in der Gehirnaktivität zu identifizieren und zu entfernen, und sich auf die Analyse neuronaler Aktivierungsmuster konzentriert, die für die visuelle Rekonstruktion von entscheidender Bedeutung sind, um Bilder auf hoher Ebene aus dem Gehirn erfolgreich zu rekonstruieren Aktivität. Auflösung und semantisch genaue Bilder.

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界Papierlink: https://arxiv.org/abs/2305.17214

Projektlink: https://github.com/soinx0629/vis_dec_neurips/

Die im Papier vorgeschlagene Methode basiert auf dualem kontrastivem Lernen , modellübergreifend Das Zustandsinformations-Crossover- und Diffusionsmodell hat im Vergleich zu den besten Vorgängermodellen eine Verbesserung der Bewertungsindikatoren für relevante fMRT-Datensätze um fast 40 % erzielt. Die Qualität, Lesbarkeit und semantische Relevanz der generierten Bilder sind allen bestehenden Methoden überlegen. Spürbare Verbesserung. Diese Arbeit hilft, den visuellen Wahrnehmungsmechanismus des menschlichen Gehirns zu verstehen und trägt zur Förderung der Forschung zur visuellen Gehirn-Computer-Schnittstellentechnologie bei. Die relevanten Codes waren Open Source.

Obwohl die funktionelle Magnetresonanztomographie (fMRT) häufig zur Analyse neuronaler Reaktionen eingesetzt wird, ist die genaue Rekonstruktion visueller Bilder aus ihren Daten immer noch eine Herausforderung, vor allem weil fMRT-Daten Rauschen aus mehreren Quellen enthalten, das neuronale Aktivierungsmuster maskieren und die Dekodierungsschwierigkeiten erhöhen kann. Darüber hinaus ist der durch visuelle Stimulation ausgelöste neuronale Reaktionsprozess komplex und mehrstufig, sodass das fMRT-Signal eine nichtlineare komplexe Überlagerung darstellt, die schwer umzukehren und zu dekodieren ist.

Herkömmliche neuronale Dekodierungsmethoden wie die Ridge-Regression werden zwar verwendet, um fMRT-Signale mit entsprechenden Reizen zu verknüpfen, sind jedoch häufig nicht in der Lage, die nichtlineare Beziehung zwischen Reizen und neuronalen Reaktionen effektiv zu erfassen. In jüngster Zeit wurden Deep-Learning-Techniken wie Generative Adversarial Networks (GANs) und Latent Diffusion Models (LDMs) eingesetzt, um diese komplexe Beziehung genauer zu modellieren. Allerdings bleibt es eine der größten Herausforderungen auf diesem Gebiet, die sehbezogene Gehirnaktivität vom Rauschen zu isolieren und sie genau zu entschlüsseln.

Um diese Herausforderungen anzugehen, schlägt diese Arbeit ein zweistufiges fMRI-Darstellungs-Lernrahmen vor, mit dem Rauschen in Gehirnaktivitäten effektiv identifiziert und entfernt werden kann und der sich auf die Analyse neuronaler Aktivierungsmuster konzentriert, die für die visuelle Rekonstruktion von entscheidender Bedeutung sind. Diese Methode generiert hochauflösende und semantisch genaue Bilder mit einer Top-1-Genauigkeit von 39,34 % für 50 Kategorien und übertrifft damit den aktuellen Stand der Technik.

Eine Methodenübersicht ist eine kurze Beschreibung einer Reihe von Schritten oder Prozessen. Es wird verwendet, um zu erklären, wie man ein bestimmtes Ziel erreicht oder eine bestimmte Aufgabe erledigt. Der Zweck einer Methodenübersicht besteht darin, dem Leser oder Benutzer ein Gesamtverständnis des gesamten Prozesses zu vermitteln, damit er die Schritte besser verstehen und befolgen kann. In einer Methodenübersicht geben Sie normalerweise die Abfolge der Schritte, die benötigten Materialien oder Werkzeuge sowie möglicherweise auftretende Probleme oder Herausforderungen an. Durch die klare und prägnante Beschreibung der Methodenübersicht kann der Leser oder Benutzer die erforderliche Aufgabe leichter verstehen und erfolgreich abschließen. DC-MAE)

Um gemeinsame Gehirnaktivitätsmuster und individuelles Rauschen zwischen verschiedenen Personengruppen zu unterscheiden, stellt dieser Artikel die DC-MAE-Technologie vor, um fMRT-Darstellungen mithilfe unbeschrifteter Daten vorab zu trainieren. DC-MAE besteht aus einem Encoder NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und einem Decoder NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界, wobei NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt das maskierte fMRI-Signal als Eingabe verwendet und NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt darauf trainiert wird, das unmaskierte fMRI-Signal vorherzusagen. Der sogenannte „Doppelkontrast“ bedeutet, dass das Modell den Kontrastverlust beim Lernen der fMRT-Darstellung optimiert und an zwei verschiedenen Kontrastprozessen teilnimmt.

In der ersten Stufe des kontrastiven Lernens werden die Proben NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 in jeder Charge, die n fMRT-Proben v enthält, zufällig zweimal maskiert, wodurch zwei verschiedene maskierte Versionen NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 als positive Probenpaare zum Vergleich erzeugt werden. Anschließend konvertieren 1D-Faltungsschichten diese beiden Versionen in eingebettete Darstellungen, die jeweils in den fMRI-Encoder NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt eingespeist werden. Der Decoder NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt empfängt diese codierten latenten Darstellungen und erstellt Vorhersagen NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界. Optimieren Sie das Modell durch den ersten von der InfoNCE-Verlustfunktion berechneten Kontrastverlust, d. h. den Kreuzkontrastverlust:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

In der zweiten Stufe des kontrastiven Lernens bilden jedes demaskierte Originalbild NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und sein entsprechendes maskiertes Bild NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ein Paar natürlicher positiver Proben. Das NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 hier stellt das vom Decoder vorhergesagte Bild dar NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt. Der zweite Kontrastverlust, der Eigenkontrastverlust, wird nach folgender Formel berechnet:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Durch die Optimierung des EigenkontrastverlustsNeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 kann eine Okklusionsrekonstruktion erreicht werden. Unabhängig davon, ob es sich um NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 oder NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt handelt, stammt die negative Probe NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 aus derselben Charge von Instanzen. NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt und NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt werden gemeinsam wie folgt optimiert: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界, wobei die Hyperparameter NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 verwendet werden, um das Gewicht jedes Verlustterms anzupassen.

  • Zweite Stufe: Abstimmung mithilfe modalübergreifender Anleitung

Angesichts des niedrigen Signal-Rausch-Verhältnisses und der stark faltbaren Natur von fMRT-Aufzeichnungen ist es für Lernende von fMRT-Funktionen wichtig, sich auf diejenigen zu konzentrieren, die für die visuelle Verarbeitung am relevantesten sind Und es ist entscheidend, das aussagekräftigste Gehirnaktivierungsmuster zu rekonstruieren

Nach der ersten Stufe des Vortrainings wird der fMRI-Autoencoder mit Bildunterstützung angepasst, um eine fMRT-Rekonstruktion zu erreichen, und auch die zweite Stufe folgt diesem Prozess. Konkret werden eine Probe NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und die entsprechende fMRT-aufgezeichnete neuronale Reaktion NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 aus einer Charge von n Proben ausgewählt. NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt werden durch Blockieren und zufällige Maskierung verarbeitet, in NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 bzw. NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt umgewandelt und dann in den Bild-Encoder NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 bzw. fMRI-Encoder NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt eingegeben, um NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 zu erzeugen. Um fMRINeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt zu rekonstruieren, wird das Queraufmerksamkeitsmodul verwendet, um NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 zusammenzuführen:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

W und b repräsentieren das Gewicht bzw. die Vorspannung der entsprechenden linearen Schicht. NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ist der Skalierungsfaktor und NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ist die Dimension des Schlüsselvektors. CA ist die Abkürzung für Cross-Attention. Nachdem NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 zu NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt hinzugefügt wurde, wird es in den fMRI-Decoder eingegeben, um NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt zu rekonstruieren, und wir erhalten NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Ähnliche Berechnungen werden auch im Bild-Autoencoder durchgeführt und die Ausgabe NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt des Bild-Encoders NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 wird mit kombiniert das Cross-Attention-Modul NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 Die Ausgaben von NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt werden kombiniert und dann zum Dekodieren des Bildes NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt verwendet, was NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 ergibt: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

fMRI und Bild-Autoencoder werden gemeinsam trainiert, indem die folgende Verlustfunktion optimiert wird:

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Beim Erzeugen von Bildern Es kann ein latentes Diffusionsmodell verwendet werden (LDM)

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Nach Abschluss der ersten und zweiten Stufe des FRL-Trainings verwenden Sie den fMRI-Funktions-Lernencoder NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt, um ein latentes Diffusionsmodell (LDM) zu steuern, um Bilder aus der Gehirnaktivität zu generieren. Wie in der Abbildung gezeigt, umfasst das Diffusionsmodell einen Vorwärtsdiffusionsprozess und einen Rückwärtsdiffusionsprozess. Der Vorwärtsprozess degradiert das Bild schrittweise in normales Gaußsches Rauschen, indem nach und nach Gaußsches Rauschen mit unterschiedlicher Varianz eingeführt wird.

Diese Studie generiert Bilder, indem visuelles Wissen aus einem vorab trainierten Label-to-Image-Latent-Diffusionsmodell (LDM) extrahiert und fMRT-Daten als Bedingung verwendet wird. Hier wird ein Cross-Attention-Mechanismus eingesetzt, um fMRI-Informationen in LDM zu integrieren, basierend auf Empfehlungen aus stabilen Diffusionsstudien. Um die Rolle bedingter Informationen zu stärken, werden hier die Methoden der Kreuzaufmerksamkeit und der Zeitschrittkonditionierung eingesetzt. In der Trainingsphase werden der VQGAN-Encoder NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 und der durch die erste und zweite Stufe von FRL NeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt trainierte fMRI-Encoder verwendet, um das Bild u und fMRI v zu verarbeiten, und der fMRI-Encoder wird feinabgestimmt, während der LDM unverändert bleibt Die Funktion lautet: NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

wobei NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 das Rauschschema des Diffusionsmodells ist. In der Inferenzphase beginnt der Prozess mit Standard-Gauß-Rauschen im Zeitschritt T, und das LDM folgt sequentiell dem umgekehrten Prozess, um das Rauschen der verborgenen Darstellung schrittweise zu entfernen, abhängig von den gegebenen fMRI-Informationen. Wenn der Zeitschritt Null erreicht ist, wird die verborgene Darstellung mithilfe des VQGAN-Decoders NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界 in ein Bild umgewandelt.

Experiment

Rekonstruktionsergebnisse

NeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Durch den Vergleich mit früheren Studien wie DC-LDM, IC-GAN und SS-AE und in der Auswertung von GOD- und BOLD5000-Datensätzen zeigt diese Studie, dass die Das vorgeschlagene Modell übertrifft diese Modelle in der Genauigkeit deutlich, mit einer Verbesserung von 39,34 % bzw. 66,7 % im Vergleich zu DC-LDM bzw. IC-GAN. Die Auswertung an vier anderen Themen des GOD-Datensatzes zeigt, dass dies auch bei DC-LDM der Fall ist Das in dieser Studie vorgeschlagene Modell kann am Testsatz angepasst werden und ist hinsichtlich der Top-1-Klassifizierungsgenauigkeit von 50 Punkten deutlich besser als DC-LDM, was beweist, dass das vorgeschlagene Modell bei verschiedenen Themen zuverlässig und überlegen ist ' Gehirnaktivität.

Die Forschungsergebnisse zeigen, dass die Verwendung des vorgeschlagenen Lernrahmens für die fMRI-Darstellung und des vorab trainierten LDM die visuelle Aktivität des Gehirns besser rekonstruieren kann und weit über das aktuelle Ausgangsniveau hinausgeht. Diese Arbeit trägt dazu bei, das Potenzial neuronaler Dekodierungsmodelle weiter zu erforschenNeurIPS23|视觉 「读脑术」:从大脑活动中重建你眼中的世界

Das obige ist der detaillierte Inhalt vonNeurIPS23 |. „Brain Reading“ entschlüsselt die Gehirnaktivität und rekonstruiert die visuelle Welt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:jiqizhixin.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen