Heim >Technologie-Peripheriegeräte >KI >Jenseits von LLMs: Hier erfahren Sie, warum kleine Sprachmodelle die Zukunft der KI sind
Mit der Veröffentlichung von ChatGPT von Open AI kommen große Sprachmodelle (LLMs) auf den Markt. Seitdem haben mehrere Unternehmen auch ihre LLMs eingeführt, aber immer mehr Unternehmen tendieren zu kleinen Sprachmodellen (SLMs).
SLMs gewinnen an Bedeutung, aber was sind sie und wie unterscheiden sie sich von LLMs?
Ein kleines Sprachmodell (SLM) ist eine Art Modell der künstlichen Intelligenz mit weniger Parametern (stellen Sie sich dies als einen Wert im Modell vor, der während des Trainings gelernt wurde). Wie ihre größeren Gegenstücke können SLMs Text generieren und andere Aufgaben ausführen. Allerdings verwenden SLMs weniger Datensätze für das Training, haben weniger Parameter und erfordern weniger Rechenleistung zum Trainieren und Ausführen.
SLMs konzentrieren sich auf Schlüsselfunktionen und ihr geringer Platzbedarf bedeutet, dass sie auf verschiedenen Geräten, einschließlich diesen, bereitgestellt werden können die nicht über High-End-Hardware wie Mobilgeräte verfügen. Googles Nano beispielsweise ist ein von Grund auf neu entwickeltes On-Device-SLM, das auf Mobilgeräten läuft. Aufgrund seiner geringen Größe kann Nano nach Angaben des Unternehmens lokal mit oder ohne Netzwerkverbindung ausgeführt werden.
Neben Nano gibt es noch viele andere SLMs von führenden und aufstrebenden Unternehmen im KI-Bereich. Zu den beliebten SLMs gehören Phi-3 von Microsoft, GPT-4o mini von OpenAI, Claude 3 Haiku von Anthropic, Llama 3 von Meta und Mixtral 8x7B von Mistral AI.
Andere Optionen sind ebenfalls verfügbar, die Sie vielleicht für LLMs halten, es aber sind SLMs. Dies gilt insbesondere, wenn man bedenkt, dass die meisten Unternehmen den Multi-Modell-Ansatz verfolgen und mehr als ein Sprachmodell in ihrem Portfolio veröffentlichen und sowohl LLMs als auch SLMs anbieten. Ein Beispiel ist GPT-4, das verschiedene Modelle hat, darunter GPT-4, GPT-4o (Omni) und GPT-4o mini.
Bei der Diskussion von SLMs können wir ihre großen Gegenstücke nicht ignorieren: LLMs. Der wesentliche Unterschied zwischen einem SLM und einem LLM ist die Modellgröße, die anhand von Parametern gemessen wird.
Zum jetzigen Zeitpunkt besteht in der KI-Branche kein Konsens über die maximale Anzahl Anzahl der Parameter, die ein Modell nicht überschreiten sollte, um als SLM zu gelten, bzw. die Mindestanzahl, die erforderlich ist, um als LLM zu gelten. Allerdings verfügen SLMs typischerweise über Millionen bis einige Milliarden Parameter, während LLMs mehr haben, bis zu Billionen.
Zum Beispiel hat GPT-3, das im Jahr 2020 veröffentlicht wurde, 175 Milliarden Parameter (und die Es wird gemunkelt, dass das GPT-4-Modell rund 1,76 Billionen hat), während Microsofts 2024 Phi-3-mini, Phi-3-small und Phi-3-Medium-SLMs messen jeweils 3,8, 7 und 14 Milliarden Parameter.
Ein weiterer Unterscheidungsfaktor zwischen SLMs und LLMs ist die Menge der für das Training verwendeten Daten. SLMs werden auf kleineren Datenmengen trainiert, während LLMs große Datensätze verwenden. Dieser Unterschied wirkt sich auch auf die Fähigkeit des Modells aus, komplexe Aufgaben zu lösen.
Aufgrund der großen Datenmenge, die im Training verwendet wird, eignen sich LLMs besser für die Lösung verschiedener Arten komplexer Aufgaben, die fortgeschrittenes Denken erfordern, während SLMs besser für einfachere Aufgaben geeignet sind Aufgaben. Im Gegensatz zu LLMs verwenden SLMs weniger Trainingsdaten, aber die verwendeten Daten müssen von höherer Qualität sein, um viele der in LLMs enthaltenen Funktionen in einem winzigen Paket zu erreichen.
Für die meisten Anwendungsfälle sind SLMs besser positioniert, um zu den Mainstream-Modellen zu werden, die von Unternehmen und Verbrauchern zur Ausführung einer Vielzahl von Aufgaben verwendet werden. Klar, LLMs haben ihre Vorteile und sind für bestimmte Anwendungsfälle, etwa die Lösung komplexer Aufgaben, besser geeignet. Aus folgenden Gründen sind SLMs jedoch für die meisten Anwendungsfälle die Zukunft.
SLMs benötigen für die Schulung weniger Daten als LLMs, was sie zur praktikabelsten Option für Einzelpersonen und kleine bis mittlere Unternehmen mit begrenzten Schulungsdaten, begrenzten Finanzen oder beidem macht. LLMs erfordern große Mengen an Trainingsdaten und damit auch enorme Rechenressourcen für das Training und den Betrieb.
Um dies ins rechte Licht zu rücken: Sam Altman, CEO von OpenAI, bestätigte, dass das Training mehr als 100 Millionen US-Dollar gekostet hat GPT-4 während einer Rede auf einer Veranstaltung am MIT (gemäß Wired). Ein weiteres Beispiel ist Metas OPT-175B LLM. Meta sagt es wurde mit 992 NVIDIA A100 80GB GPUs trainiert, die laut CNBC etwa 10.000 US-Dollar pro Einheit kosten. Damit belaufen sich die Kosten auf etwa 9 Millionen US-Dollar, ohne andere Ausgaben wie Energie, Gehälter und mehr.
Bei solchen Zahlen ist es für kleine und mittlere Unternehmen nicht rentabel, einen LLM auszubilden. Im Gegensatz dazu weisen SLMs hinsichtlich der Ressourcen eine geringere Eintrittsbarriere auf und sind kostengünstiger im Betrieb, sodass mehr Unternehmen sie annehmen werden.
Leistung ist ein weiterer Bereich, in dem SLMs LLMs aufgrund ihrer kompakten Größe schlagen. SLMs haben eine geringere Latenz und eignen sich besser für Szenarien, in denen schnellere Reaktionen erforderlich sind, beispielsweise in Echtzeitanwendungen. Beispielsweise wird in Sprachantwortsystemen wie digitalen Assistenten eine schnellere Antwort bevorzugt.
Die Ausführung auf dem Gerät (mehr dazu später) bedeutet auch, dass Ihre Anfrage nicht den Weg zu Online-Servern und zurück zurücklegen muss Reagieren Sie auf Ihre Anfrage, was zu schnelleren Antworten führt.
Wenn es um generative KI geht, bleibt eines konstant: Müll rein, Müll raus. Aktuelle LLMs wurden mithilfe großer Datensätze roher Internetdaten trainiert. Daher sind sie möglicherweise nicht in allen Situationen genau. Dies ist eines der Probleme mit ChatGPT und ähnlichen Modellen und der Grund, warum Sie nicht allem vertrauen sollten, was ein KI-Chatbot sagt. Andererseits werden SLMs mit qualitativ hochwertigeren Daten trainiert als LLMs und weisen daher eine höhere Genauigkeit auf.
SLMs können auch durch gezieltes Training auf bestimmte Aufgaben oder Domänen weiter verfeinert werden, was zu einer besseren Genauigkeit bei diesen führt Bereiche im Vergleich zu größeren, allgemeineren Modellen.
SLMs benötigen weniger Rechenleistung als LLMs und eignen sich daher ideal für Edge-Computing-Fälle. Sie können auf Edge-Geräten wie Smartphones und autonomen Fahrzeugen eingesetzt werden, die nicht über große Rechenleistung oder Ressourcen verfügen. Das Nano-Modell von Google kann auf dem Gerät ausgeführt werden, sodass es auch dann funktioniert, wenn Sie keine aktive Internetverbindung haben.
Diese Fähigkeit stellt eine Win-Win-Situation sowohl für Unternehmen als auch für Verbraucher dar. Erstens ist es ein Gewinn für den Datenschutz, da Benutzerdaten lokal verarbeitet und nicht an die Cloud gesendet werden, was wichtig ist, da in unseren Smartphones mehr KI integriert ist, die nahezu jedes Detail über uns enthält. Es ist auch ein Gewinn für Unternehmen, da sie keine großen Server bereitstellen und betreiben müssen, um KI-Aufgaben zu bewältigen.
SLMs gewinnen an Dynamik, wobei die größten Branchenakteure wie Open AI, Google, Microsoft, Anthropic und Meta veröffentlichen solche Modelle. Diese Modelle eignen sich eher für einfachere Aufgaben, wofür die meisten von uns LLMs verwenden; Daher sind sie die Zukunft.
Aber LLMs führen nirgendwo hin. Stattdessen werden sie für fortgeschrittene Anwendungen verwendet, die Informationen aus verschiedenen Bereichen kombinieren, um etwas Neues zu schaffen, wie etwa in der medizinischen Forschung.
Das obige ist der detaillierte Inhalt vonJenseits von LLMs: Hier erfahren Sie, warum kleine Sprachmodelle die Zukunft der KI sind. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!