


Das Training immer größerer Deep-Learning-Modelle ist im letzten Jahrzehnt zu einem aufkommenden Trend geworden. Wie in der folgenden Abbildung dargestellt, verbessert die kontinuierliche Erhöhung der Anzahl der Modellparameter die Leistung neuronaler Netze immer weiter und generiert auch einige neue Forschungsrichtungen, es treten jedoch auch immer mehr Probleme mit dem Modell auf.
Zuallererst hat diese Art von Modell oft nur eingeschränkten Zugriff und ist nicht Open Source, oder selbst wenn es Open Source ist, sind für die Ausführung immer noch viele Rechenressourcen erforderlich. Zweitens sind die Parameter dieser Netzwerkmodelle nicht universell, sodass für Training und Ableitung eine große Menge an Ressourcen erforderlich ist. Drittens kann das Modell nicht unbegrenzt erweitert werden, da die Größe der Parameter durch die Hardware begrenzt ist. Um diese Probleme anzugehen, zeichnet sich ein neuer Forschungstrend ab, der sich auf die Verbesserung der Effizienz konzentriert.
Kürzlich haben mehr als ein Dutzend Forscher der Hebrew University, der University of Washington und anderen Institutionen gemeinsam einen Bericht verfasst, in dem sie effiziente Methoden im Bereich der Verarbeitung natürlicher Sprache (NLP) zusammenfassen.
Papieradresse: https://arxiv.org/pdf/2209.00099.pdf
Effizienz bezieht sich normalerweise auf das Verhältnis zwischen der Ressourceneingabe in das System und der Systemausgabe Ausgabe zu produzieren. Im Bereich NLP betrachten wir Effizienz als das Verhältnis zwischen den Kosten eines Modells und den von ihm erzielten Ergebnissen.
Gleichung (1) beschreibt die Trainingskosten (Kosten) eines Modells mit künstlicher Intelligenz, um ein bestimmtes Ergebnis (R) zu erzeugen, das proportional zu drei (unvollständigen) Faktoren ist:
(1) in einer einzelnen Stichprobe Kosten für die Ausführung des Modells (E);
(2) Die Größe des Trainingsdatensatzes (D);
(3) Die Anzahl der für die Modellauswahl oder Parameteroptimierung erforderlichen Trainingsläufe (H) .
Die Kosten Kosten(·) können dann entlang mehrerer Dimensionen gemessen werden, wie z. B. Rechen-, Zeit- oder Umweltkosten, die jeweils auf verschiedene Weise weiter quantifiziert werden können. Der Rechenaufwand kann beispielsweise die Gesamtzahl der Gleitkommaoperationen (FLOPs) oder die Anzahl der Modellparameter umfassen. Da die Verwendung einer einzigen Kostenmetrik irreführend sein kann, sammelt und organisiert diese Studie Arbeiten zu mehreren Aspekten von effizientem NLP und erörtert, welche Aspekte für welche Anwendungsfälle vorteilhaft sind.
Ziel dieser Studie ist es, eine grundlegende Einführung in eine breite Palette von Methoden zur Verbesserung der NLP-Effizienz zu geben. Daher organisiert diese Studie diese Umfrage gemäß einer typischen NLP-Modellpipeline (Abbildung 2 unten) und stellt vorhandene Methoden vor, um jede Phase effizienter zu gestalten .
Diese Arbeit bietet einen praktischen Effizienzleitfaden für NLP-Forscher, hauptsächlich für zwei Arten von Lesern:
(1) Forscher aus verschiedenen Bereichen des NLP, um ihnen bei der Arbeit in ressourcenbegrenzten Umgebungen zu helfen: Abhängig von Ressourcenengpässen können Leser direkt zu einem Aspekt springen, der von der NLP-Pipeline abgedeckt wird. Wenn die Hauptbeschränkung beispielsweise die Inferenzzeit ist, werden in Kapitel 6 des Papiers entsprechende Effizienzverbesserungen beschrieben.
(2) Forscher, die daran interessiert sind, den aktuellen Stand der Effizienz von NLP-Methoden zu verbessern. Dieses Papier kann als Einstiegspunkt dienen, um Möglichkeiten für neue Forschungsrichtungen zu identifizieren.
Abbildung 3 unten zeigt die in dieser Studie zusammengefasste effiziente NLP-Methode.
Obwohl die Wahl der Hardware einen großen Einfluss auf die Effizienz des Modells hat, steuern die meisten NLP-Forscher Entscheidungen über Hardware nicht direkt und die meisten Hardwareoptimierungen sind nicht auf alle Phasen der NLP-Pipeline anwendbar . es funktioniert. Daher konzentriert sich diese Studie auf Algorithmen, bietet jedoch in Kapitel 7 eine kurze Einführung in die Hardwareoptimierung. Abschließend wird in dem Papier weiter erörtert, wie die Effizienz quantifiziert werden kann, welche Faktoren während des Bewertungsprozesses berücksichtigt werden sollten und wie man sich für das am besten geeignete Modell entscheidet.
Interessierte Leser können den Originaltext des Artikels lesen, um weitere Forschungsdetails zu erfahren.
Das obige ist der detaillierte Inhalt vonWie kann die Modelleffizienz mit begrenzten Ressourcen verbessert werden? Ein Artikel, der effiziente NLP-Methoden zusammenfasst. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Meta hat sich mit Partnern wie Nvidia, IBM und Dell zusammengetan, um die Einsatzintegration von Lama Stack auf Unternehmensebene zu erweitern. In Bezug auf die Sicherheit hat Meta neue Tools wie Llam Guard 4, Llamafirewall und Cyberseceval 4 auf den Markt gebracht und das Lama Defenders -Programm gestartet, um die KI -Sicherheit zu verbessern. Darüber hinaus hat Meta 1,5 Millionen US -Dollar an Lama -Impact -Zuschüssen an 10 globale Institutionen verteilt, darunter Startups, die an der Verbesserung der öffentlichen Dienste, der Gesundheitsversorgung und der Bildung arbeiten. Die neue Meta -AI -Anwendung von Lama 4, die als Meta AI konzipiert wurde

Joi Ai, eine Firma Pionierin der Human-AI-Interaktion, hat den Begriff "AI-Lationships" eingeführt, um diese sich entwickelnden Beziehungen zu beschreiben. Jaime Bronstein, ein Beziehungstherapeut bei Joi AI, stellt klar, dass diese nicht dazu gedacht sind, das Menschen C zu ersetzen C.

Online -Betrug und Bot -Angriffe stellen eine bedeutende Herausforderung für Unternehmen dar. Einzelhändler bekämpfen Bots, die Produkte horten, Banken Battle Account Takeovers und Social -Media -Plattformen kämpfen mit Imitatoren. Der Aufstieg von AI verschärft dieses Problem, das Rende

AI -Agenten sind bereit, das Marketing zu revolutionieren und möglicherweise die Auswirkungen früherer technologischer Verschiebungen zu übertreffen. Diese Agenten, die einen signifikanten Fortschritt in der generativen KI darstellen, verarbeiten nicht nur Informationen wie Chatgpt, sondern auch Actio

Die Auswirkungen der KI auf wichtige Entscheidungen von NBA Game 4 Zwei entscheidende NBA-Matchups in Game 4 zeigten die bahnbrechende Rolle der KI beim Amtieren. Im ersten Fall führte Denvers verpasste Drei-Zeiger von Nikola Jokic zu einer Gasse in der letzten Sekunden von Aaron Gordon. Sony's Haw

Traditionell forderte die weltweit expandierende Expertin der regenerativen Medizin umfangreiche Reisen, praktische Ausbildung und jahrelange Mentoring. Jetzt verändert AI diese Landschaft, überwindet geografische Einschränkungen und beschleunigte Fortschritte durch EN

Intel arbeitet daran, seinen Herstellungsprozess in die führende Position zurückzugeben, während er versucht, Fab -Semiconductor -Kunden anzuziehen, um Chips an seinen Fabriken herzustellen. Zu diesem Zweck muss Intel mehr Vertrauen in die Branche aufbauen, um nicht nur die Wettbewerbsfähigkeit seiner Prozesse zu beweisen, sondern auch zu demonstrieren, dass Partner Chips in einer vertrauten und ausgereiften Workflow, konsistente und sehr zuverlässige Weise herstellen können. Alles, was ich heute höre, lässt mich glauben, dass Intel dieses Ziel zu diesem Ziel bewegt. Die Keynote -Rede des neuen CEO Tan Libai begann den Tag. Tan Libai ist unkompliziert und prägnant. Er skizziert mehrere Herausforderungen in den Foundry -Diensten von Intel und die Maßnahmen, die Unternehmen ergriffen haben, um diese Herausforderungen zu bewältigen und einen erfolgreichen Weg für Intel Foundry Services in Zukunft zu planen. Tan Libai sprach über den Prozess des OEM -Dienstes von Intel, um Kunden mehr zu machen

Die Chaucer Group, ein globales Spezialversicherungsunternehmen, und Armilla AI haben sich mit den wachsenden Bedenken hinsichtlich der KI-Risiken befassen, und Armilla AI haben sich zusammengeschlossen, um ein neuartiges Versicherungsprodukt von Drittanbietern (TPL) einzubringen. Diese Richtlinie schützt Unternehmen vor


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

SecLists
SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Dreamweaver Mac
Visuelle Webentwicklungstools
