Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Vorschulung ohne Aufmerksamkeit; In-Context Learning durch GPT

Vorschulung ohne Aufmerksamkeit; In-Context Learning durch GPT

WBOY
WBOYnach vorne
2023-04-14 17:31:031114Durchsuche

#? #

Zusammenfassung: Dieses Papier stellt einen neuen Ansatz zur Integration physikalischer Simulationen mit Szenen-NeRF-Modellen vor, um realistische Filme der Physik in diesen Szenen zu erstellen. In konkreten Ergebnissen kann die Methode die möglichen Auswirkungen des Klimawandels realistisch simulieren – wie würde ein Spielplatz nach einem kleinräumigen Hochwasser aussehen? Wie wäre es nach der großen Flut? Was ist nach dem Schneesturm?

  • Empfohlen: #🎜 🎜# Nebel, Winter und Überschwemmungen treten in Sekundenschnelle auf und das neue NeRF-Modell rendert realistische physische Blockbuster.
Papier 2: Vortraining ohne Aufmerksamkeit

Autor: Junxiong Wang et al 🎜🎜#

Vorschulung ohne Aufmerksamkeit; In-Context Learning durch GPT

Zusammenfassung: Dieses Papier schlägt einen bidirektionalen Gated SSM vor (BiGS)-Modell kann in Kombination mit der Routing-Schicht und der auf Multiplikationsgattern basierenden Modellarchitektur eines Zustandsraummodells (SSM) die BERT-Vortrainingsergebnisse ohne Aufmerksamkeit reproduzieren und kann auf ein weitreichendes Vortraining von 4096 erweitert werden Token ohne die Notwendigkeit einer Annäherung.

Empfehlung: Vorschulung erfordert keine Aufmerksamkeit, Erweiterung auf 4096 Token ist nicht möglich Problem, vergleichbar mit BERT.

  • Papier 3: Ein Modell, um sie alle zu bearbeiten: Textgesteuerte Bildmanipulation in freier Form mit semantischen Modulationen# 🎜🎜#
  • Autor: Yiming Zhu et al

Papier Adresse: https://arxiv.org/pdf/2210.07883.pdf

Vorschulung ohne Aufmerksamkeit; In-Context Learning durch GPT

Zusammenfassung:

Kürzlich Die verwendete textgesteuerte Bildbearbeitung hat große Fortschritte und Aufmerksamkeit erzielt, insbesondere basierend auf Entrauschungsdiffusionsmodellen wie StableDiffusion oder DALLE. Bei der GAN-basierten Text-Bild-Bearbeitung müssen jedoch noch einige Probleme gelöst werden. Im klassischen StyleCILP muss beispielsweise für jeden Text ein Modell trainiert werden Anwendungen. Dieser Artikel schlägt FFCLIP vor und löst dieses Problem. Für flexible unterschiedliche Texteingaben benötigt FFCLIP nur ein Modell, um das Bild entsprechend zu bearbeiten, ohne dass jeweils eine Neuschulung des Textes erforderlich ist Das Modell hat bei mehreren Datensätzen sehr gute Ergebnisse erzielt. Dieser Artikel wurde von NeurIPS 2022 angenommen.

Empfohlen: Ein neues Paradigma für die Text- und Bildbearbeitung, ein einziges Modell realisiert die durch mehrere Texte geführte Bildbearbeitung. Nr.

  • Autor: Yizhong Wang et al .org/pdf/2212.10560v1.pdf
  • Zusammenfassung: Die University of Washington und andere Institutionen In einem kürzlich gemeinsam veröffentlichten Artikel wird das neue Framework SELF-INSTRUCT vorgeschlagen, um die Fähigkeit zur Befehlsfolge vorab trainierter Sprachmodelle zu verbessern, indem der eigene Generierungsprozess des Modells gesteuert wird. SELF-INSTRUCT ist ein halbautomatischer Prozess, der die Befehlsabstimmung auf einem vorab trainierten LM unter Verwendung von Befehlssignalen vom Modell selbst durchführt.

    Empfohlen: Keine Notwendigkeit für manuelle Anmerkungen, das selbstgenerierte Anweisungs-Framework überwindet den Kostenengpass von LLM wie ChatGPT.

    Papier 5: Ab Initio Calculation of Real Solids via Neural Network Ansatz

    # 🎜🎜#

    • Autor: Xiang Li et al
    • # 🎜 🎜#Papieradresse: https://www.nature.com/articles/s41467-022-35627-1
    # 🎜 🎜#Zusammenfassung:

    Maschinelles Lernen kann riesige Datenmengen verarbeiten, wissenschaftliche Probleme in komplexen Szenarien lösen und wissenschaftliche Erkundungen in neue Bereiche führen, die in der Vergangenheit unerreichbar waren. DeepMind nutzt beispielsweise die künstliche Intelligenz-Software AlphaFold, um hochpräzise Vorhersagen über fast alle der wissenschaftlichen Gemeinschaft bekannten Proteinstrukturen zu treffen. Die von Christian Lagemann vorgeschlagene Methode der Partikelbild-Velocimetrie (PIV) hat die ursprüngliche rein manuelle Einstellung erheblich verbessert Der Anwendungsbereich des Modells ist für die Forschung in vielen Bereichen wie Automobil, Luft- und Raumfahrt und biomedizinischer Technik von entscheidender Bedeutung. Kürzlich wurde die Arbeit „Ab-initio-Berechnung realer Feststoffe über einen Neural-Network-Ansatz“ vom Forschungsteam des ByteDance AI Lab und der Forschungsgruppe von Chen Ji an der Fakultät für Physik der Universität Peking veröffentlicht Diese Arbeit liefert eine neue Idee für das Studium der Physik der kondensierten Materie. Diese Arbeit schlägt die branchenweit erste neuronale Netzwerkwellenfunktion vor, die für Festkörpersysteme geeignet ist, realisiert First-Prinzipien-Berechnungen von Festkörpern und treibt die Berechnungsergebnisse an die thermodynamische Grenze. Dies ist ein starker Beweis dafür, dass neuronale Netze effiziente Werkzeuge für das Studium der Festkörperphysik sind, und weist auch darauf hin, dass Deep-Learning-Technologie eine immer wichtigere Rolle in der Physik der kondensierten Materie spielen wird. Relevante Forschungsergebnisse wurden am 22. Dezember 2022 im internationalen Top-Journal Nature Communication veröffentlicht.

    Empfohlen:

    Die branchenweit erste neuronale Netzwerkwellenfunktion, die für feste Systeme geeignet ist, wurde in einer Nature-Unterzeitschrift veröffentlicht.

    Papier 6: Warum können GPT-Sprachmodelle heimlich im Kontext lernen und als Metaoptimierer dienen?

    # 🎜🎜#

    Autor: Damai Dai et al
    • Papier Adresse: https://arxiv.org/pdf/2212.10559v2.pdf
    • Zusammenfassung:
    In-Context Learning (ICL) hat bei großen vorab trainierten Sprachmodellen große Erfolge erzielt, aber wie es funktioniert, ist noch eine offene Frage. In diesem Artikel verstehen Forscher der Peking-Universität, der Tsinghua-Universität und Microsoft ICL als eine Art implizite Feinabstimmung und liefern empirische Beweise, um zu beweisen, dass ICL und explizite Feinabstimmung auf mehreren Ebenen ähnlich funktionieren.

    Empfohlen:

    Warum funktioniert In-Context Learning, gesteuert durch GPT? Das Modell führt heimlich einen Gradientenabstieg durch.

    Paper 7: Experimentelle Hinweise auf nichtklassische Gehirnfunktionen

    #🎜🎜 #Autor: Christian Matthias Kerskens et al

    • Papieradresse: https://iopscience.iop .org/article/10.1088/2399-6528/ac94be
    • Zusammenfassung:
    • Seit Jahrzehnten Wissenschaftler Wir haben die Rechen- und Denkmechanismen des menschlichen Gehirns erforscht. Allerdings ist die Struktur des menschlichen Gehirns zu komplex und enthält Dutzende Milliarden Neuronen, was Billionen Chips entspricht, sodass es für uns schwierig ist, das herauszufinden. Roger Penrose, der für seinen Beitrag zur Erforschung Schwarzer Löcher den Nobelpreis für Physik erhielt, schlug einst mutig die Idee des „Quantenbewusstseins“ vor, das heißt, das menschliche Gehirn selbst sei eine Quantenstruktur oder ein Quantencomputer. Diese Ansicht wurde jedoch in Frage gestellt.

    Eine aktuelle Studie der Trinity University Dublin zeigt, dass unser Gehirn Quantencomputing durchführt. Die Studie legt nahe, dass es im menschlichen Gehirn Gehirnfunktionsmediatoren gibt, die mit dem Bewusstsein zusammenhängen der Führung. Wenn diese Gehirnfunktionen auf nicht-klassische Weise funktionieren müssen, bedeutet dies, dass das Bewusstsein nicht-klassisch ist, d. h. die kognitiven Prozesse des Gehirns beinhalten Quantenberechnungen.

    Empfehlung: Es gibt neue Beweise für diese Spekulation, dass das Denken des Gehirns Quantencomputing ist.

    ArXiv Weekly Radiostation

    Heart of the Machine kooperiert mit der von Chu Hang und Luo Ruotian initiierten ArXiv Weekly Radiostation und wählt diese Woche auf der Grundlage von 7 Artikeln weitere wichtige Artikel aus, darunter 10 ausgewählte Artikel in den Bereichen NLP, CV und ML, und stellt Audio bereit Format Die Zusammenfassung des Papiers, die Details sind wie folgt:

    10 NLP-PapiereAudio: 00:0020:18

    10 NLP vorgestellt Artikel dieser Woche Ja:

    1. Benötigt die unbeaufsichtigte Grammatikinduktion Pixel? (von Serge Belongie, Kilian Q. Weinberger, Jitendra Malik, Trevor Darrell)

    2 Messung und Zero-Shot-Debiasing. (von Bernhard Schölkopf) Regularisierung für die Ausrichtung der Sprachbeziehungen (von Ruslan Salakhutdinov, Louis-Philippe Morency) 5. Über die Verwendung paralleler Daten zur Bewertung der Übersetzungsqualität. Auf dem Weg zu einer menschenähnlichen Bewertung für die Erzeugung natürlicher Sprache mit Fehleranalyse. 7. Können aktuelle aufgabenorientierte Dialogmodelle reale Szenarien automatisieren? (von Kyunghyun Cho) 8. Über die blinden Flecken modellbasierter Bewertungsmetriken für die Textgenerierung 10. Der Einfluss symbolischer Darstellungen auf das kontextbezogene Lernen für das Few-Shot-Denken (von Li Erran Li, Eric Xing)

    Die 10 ausgewählten Lebenslaufpapiere dieser Woche sind:

    1. Revisiting Residual Networks for Adversarial Robustness: An Architectural Perspective. (von Kalyanmoy Deb)

    2. Räumliches Benchmarking al-Beziehungen bei der Text-zu-Bild-Generierung.

    3. Eine kurze Umfrage zur Personenerkennung aus der Ferne. (von Rama Chellappa)

    5. Reversible Column Networks 7. Hi-LASSIE: High-Fidelity Articulated Shape and Skeleton Discovery (von Ming-Hsuan Yang)

    8 -Hsuan Yang)

    9. Die Kraft der visuellen Aufforderung auf Pixelebene freisetzen (von Alan Yuille)

    10. Von Bildern zu Textaufforderungen: Zero-Shot-VQA mit eingefrorenen großen Sprachmodellen.  (von Dacheng Tao, Steven C.H. Hoi)

Das obige ist der detaillierte Inhalt vonVorschulung ohne Aufmerksamkeit; In-Context Learning durch GPT. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen