Heim >Backend-Entwicklung >PHP-Tutorial >Schritt-für-Schritt-Anleitung: Ausführen von LLM-Modellen mit Ollama

Schritt-für-Schritt-Anleitung: Ausführen von LLM-Modellen mit Ollama

Linda Hamilton
Linda HamiltonOriginal
2024-12-29 22:37:10618Durchsuche

Hallo Kunsthandwerker,

Im heutigen Blog-Beitrag erfahren wir mehr über Ollama, seine Hauptfunktionen und wie man es auf verschiedenen Betriebssystemen installiert.

Was ist Ollama?

  • Ollama ist ein Open-Source-Tool, mit dem Sie ein Large Language Model (LLM) auf Ihrem lokalen Computer ausführen können. Es verfügt über umfangreiche Sammlungen von LLM-Modellen. Es gewährleistet den Datenschutz und die Sicherheit der Daten und ist daher eine beliebtere Wahl bei KI-Entwicklern, Forschern und Geschäftsinhabern, denen die Vertraulichkeit der Daten Priorität einräumt.
  • Ollama gewährleistet die volle Kontrolle über Ihre Daten und vermeidet potenzielle Risiken.
  • Ollama ist ein Offline-Tool, das die Latenz und Abhängigkeit von externen Servern reduziert und es so schneller und zuverlässiger macht.

Eigenschaften von Ollama:

1. Verwaltung des KI-Modells: Es ermöglicht Ihnen die einfache Verwaltung aller Modelle auf Ihrem System, indem es Ihnen die volle Kontrolle darüber gibt, Modelle herunterzuladen, auszuführen und von Ihren Systemen zu entfernen. Außerdem wird die Version jedes auf Ihrem Computer installierten Modells beibehalten.

2. Befehlszeilenschnittstelle (CLI): Wir nutzen die CLI, um die LLM-Modelle lokal abzurufen, auszuführen und zu verwalten. Für Benutzer, die ein visuelleres Erlebnis bevorzugen, werden auch Tools für grafische Benutzeroberflächen (GUI) von Drittanbietern wie Open WebUI unterstützt.

3. Unterstützung mehrerer Plattformen: Ollama bietet plattformübergreifende Kompatibilität, die Windows, Linux und MacOS umfasst, und erleichtert so die Integration in Ihre bestehenden Arbeitsabläufe, unabhängig davon, welches Betriebssystem Sie verwenden.

So verwenden Sie Ollama auf mehreren Plattformen

In diesem Abschnitt erfahren Sie, wie Sie Ollama plattformübergreifend herunterladen, installieren und lokal ausführen.

  • Um Ollma herunterzuladen, besuchen Sie die offizielle Website hier und laden Sie es entsprechend Ihrem bevorzugten Betriebssystem herunter.
  • Der Installationsprozess für MacOS ähnelt dem von Windows und für Linux müssen Sie einen Befehl ausführen, um Ollama auf Ihrem System zu installieren.

Ich werde Sie durch den Installationsprozess für Windows führen, den Sie ähnlich für macOS befolgen können.

  • Klicken Sie auf die Download-Schaltfläche für Ihr bevorzugtes Betriebssystem, um eine ausführbare Datei herunterzuladen. Öffnen Sie dann die Datei, um den Installationsvorgang zu starten.

Step-by-Step Guide: Running LLM Models with Ollama

  • Um es unter Linux zu installieren, öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus, um Ollama auf Ihrem Computer zu installieren.
curl -fsSL https://ollama.com/install.sh | sh

Ja! Sie haben Ollama erfolgreich installiert. Es befindet sich in einer Taskleiste Ihres Systems und zeigt an, dass es ausgeführt wurde.

  • Jetzt werden wir sehen, wie man verschiedene von Ollama bereitgestellte Modelle mithilfe der Befehlszeilenschnittstelle (CLI) verwendet und herunterlädt.

  • Öffnen Sie Ihr Terminal und befolgen Sie diese Schritte. Hier ist eine Liste der von Ollama bereitgestellten LLM-Modelle.

  1. ollama: Dieser Befehl listet alle verfügbaren Befehle auf.
  2. ollama -v oder --version: Zeigt die Version an
  3. Ollama-Liste: Listet alle in Ihren Systemen installierten Modelle auf

Step-by-Step Guide: Running LLM Models with Ollama

Jetzt werden wir sehen, wie man das Modell mit Ollama installiert

Das LLM-Modell kann auf zwei Arten installiert werden:

  1. ollama pull model_name
  2. ollama run model_name – Wenn das Modell noch nicht auf das System heruntergeladen wurde, wird es zuerst abgerufen und dann ausgeführt

Wir werden das Gemma2-Modell in unserem System installieren
gemma2: Google Gemma 2 ist ein leistungsstarkes und effizientes Modell, das in drei Größen erhältlich ist: 2B, 9B und 27B.

curl -fsSL https://ollama.com/install.sh | sh

Es öffnet sich eine Eingabeaufforderung zum Schreiben einer Nachricht wie unten:

ollama run gemma2
  • Wir müssen hier unsere Eingabeaufforderung schreiben, die die Antwort zurückgibt.
  • Um das Modell zu verlassen, müssen wir /bye schreiben

Step-by-Step Guide: Running LLM Models with Ollama

Sie können jetzt jedes von Ollama bereitgestellte Modell darin verwenden. Entdecken Sie das Modell und versuchen Sie, es entsprechend Ihren Anforderungen zu verwenden.

Fazit:
Wir haben Ollama untersucht, ein Open-Source-Tool, mit dem Sie LLM-Modelle lokal ausführen können, im Gegensatz zu anderen Tools, die auf Cloud-Servern basieren. Ollama gewährleistet Datensicherheit und Datenschutz und wir haben gelernt, wie Sie es auf Ihrem lokalen Computer ausführen und verwenden. Es bietet eine einfache und unkomplizierte Möglichkeit, LLM-Modelle mühelos direkt auf Ihrem System auszuführen.

Viel Spaß beim Lesen!
Viel Spaß beim Codieren!

? ❤️

Das obige ist der detaillierte Inhalt vonSchritt-für-Schritt-Anleitung: Ausführen von LLM-Modellen mit Ollama. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn