Großsprachige Modelle (LLMs) wie GPT und LLAMA haben die Art und Weise, wie wir mit Sprachaufgaben umgehen, revolutioniert, von der Erstellung intelligenter Chatbots bis hin zur Generierung komplexer Code -Snippets, alles ist möglich. Cloud -Plattformen wie das Umarmieren von Gesicht vereinfachen die Verwendung dieser Modelle. In einigen Fällen ist es jedoch eine intelligentere Wahl, LLM lokal auf Ihrem eigenen Computer auszuführen. Warum? Da es eine größere Privatsphäre bietet, die Anpassung an Ihre spezifischen Anforderungen ermöglicht und die Kosten erheblich senken kann. Wenn Sie LLM lokal ausführen, können Sie die volle Kontrolle über die Leistung zu Ihren eigenen Bedingungen nutzen.
Mal sehen, wie man LLM mit Ollama auf Ihrem System läuft und das Gesicht in nur wenigen einfachen Schritten umarmt!
Das folgende Video erläutert den Prozess Schritt für Schritt:
Wie man LLM in einer Minute vor Ort läuft [Anfängerfreundlich]
Verwenden Sie Ollama und umarmen Gesichtsvideo -Link
- Dylan (@dylan ebert ) 6. Januar 2025
Schritte zum lokalen Ausführen von LLM
Schritt 1: Ollama herunterladen
Suchen Sie zunächst nach "Ollama" in Ihrem Browser, laden Sie es herunter und installieren Sie es in Ihrem System.
Schritt 2: Finden Sie die beste Open -Source -LLM
Suchen Sie als nächstes nach dem "Umarmenden Gesichtsranking", um eine Liste der besten Open -Source -Sprachmodelle zu finden.
Schritt 3: Filtern Sie das Modell basierend auf Ihrem Gerät
Sobald Sie die Liste sehen, wenden Sie Filter an, um das beste Modell für Ihr Setup zu finden. Zum Beispiel:
- Wählen Sie ein Haus in der Verbraucherqualität.
- Wählen Sie nur offizielle Anbieter aus, um inoffizielle oder nicht überprüfte Modelle zu vermeiden.
- Wenn Ihr Laptop mit einer Low-End-GPU ausgestattet ist, wählen Sie ein Modell für Kantengeräte.
Klicken Sie auf das oberste Modell wie Qwen/Qwen2.5-35b . Klicken Sie in der oberen rechten Ecke des Bildschirms auf "Verwenden Sie dieses Modell". Sie können hier jedoch nicht Ollama als Option finden.
Dies liegt daran, dass Ollama ein spezielles Format namens GGUF verwendet, das eine kleinere, schnellere und quantitative Version des Modells ist.
(Hinweis: Die Quantisierung verringert die Qualität geringfügig, macht sie jedoch besser für die lokale Verwendung geeignet.)
Holen Sie sich das Modell im GGUF -Format:
- Gehen Sie in den Abschnitt „quantitisiert“ in den Ranglisten - hier stehen ungefähr 80 Modelle zur Verfügung. Sortieren Sie diese Modelle nach den meisten Downloads.
Suchen Sie nach Modellen mit "GGUF" in ihren Namen wie Bartowski . Dies ist eine gute Wahl.
- Wählen Sie dieses Modell aus und klicken Sie auf "Verwenden Sie dieses Modell mit Ollama".
- Für quantitative Einstellungen wählen Sie eine Dateigröße, die 1-2 GB kleiner als Ihr GPU-RAM ist, oder wählen Sie die empfohlene Option wie q5_k_m.
Schritt 5: Laden Sie das Modell herunter und beginnen Sie mit der Verwendung
Kopieren Sie die für das Modell Ihrer Wahl bereitgestellten Befehle und fügen Sie sie in Ihr Terminal ein. Drücken Sie die Taste "eingeben" und warten Sie, bis der Download abgeschlossen ist.
Sobald der Download abgeschlossen ist, können Sie mit dem Modell mit jedem anderen LLM mit dem Modell chatten. Einfach und lustig!
Das war's! Sie führen jetzt leistungsstarke LLM lokal auf Ihrem Gerät aus. Bitte sagen Sie mir, ob diese Schritte im Kommentarbereich unten für Sie funktionieren.
Das obige ist der detaillierte Inhalt vonWie fahre ich in 1 Minute LLMs vor Ort aus?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Seit 2008 habe ich mich für den Shared-Bride-Van eingesetzt, der als "Robotjitney" als "Vansit" als Zukunft des städtischen Transports bezeichnet wurde. Ich sehe diese Fahrzeuge als Transitlösung der nächsten Generation des 21. Jahrhunderts, Surpas, voraus

Revolutionieren die Erfahrung im Checkout Der innovative "Just Go" -System von Sam's Club baut auf seiner vorhandenen KI-angetriebenen "Scan & Go" -Technologie auf und ermöglicht es den Mitgliedern, während ihres Einkaufsbaus Einkäufe über die Sam's Club-App zu scannen.

Verbesserte Vorhersehbarkeit und neue Produktaufstellung von NVIDIA bei GTC 2025 Nvidia, ein wichtiger Akteur in der KI -Infrastruktur, konzentriert sich auf eine erhöhte Vorhersagbarkeit seiner Kunden. Dies beinhaltet eine konsequente Produktlieferung, die Erwartung der Leistungsverwaltung und die Erfüllung der Leistungsverwalter und beinhaltet

Googles Gemma 2: Ein leistungsstarkes, effizientes Sprachmodell Die Gemma-Familie von Google von Sprachmodellen, die für Effizienz und Leistung gefeiert wurde

Diese Führung mit Daten -Episode zeigt Dr. Kirk Borne, einen führenden Datenwissenschaftler, Astrophysiker und TEDX -Sprecher. Dr. Borne, ein renommierter Experte für Big Data, KI und maschinelles Lernen, bietet unschätzbare Einblicke in den aktuellen Zustand und den zukünftigen Traje

Es gab einige sehr aufschlussreiche Perspektiven in dieser Rede - Background -Informationen über Ingenieurwesen, die uns zeigten, warum künstliche Intelligenz so gut darin ist, die körperliche Bewegung der Menschen zu unterstützen. Ich werde eine Kernidee aus der Perspektive jedes Mitwirkenden skizzieren, um drei Designaspekte zu demonstrieren, die ein wichtiger Bestandteil unserer Erforschung der Anwendung künstlicher Intelligenz im Sport sind. Edge -Geräte und rohe personenbezogene Daten Diese Vorstellung von künstlicher Intelligenz enthält tatsächlich zwei Komponenten - eine, die sich darauf bezieht, wo wir große Sprachmodelle platzieren, und die andere hängt mit den Unterschieden zwischen unserer menschlichen Sprache und der Sprache zusammen, die unsere Vitalfunktionen „ausdrücken“, wenn sie in Echtzeit gemessen werden. Alexander Amini weiß viel über Laufen und Tennis, aber er immer noch

Jamie Engstrom, Chief Information Officer und Senior Vice President It, leitet ein globales Team von über 2.200 IT -Fachleuten in 28 Ländern. Mit 26 Jahren in Caterpillar, darunter viereinhalb Jahre in ihrer gegenwärtigen Rolle, Engst

Das neue Ultra HDR -Tool von Google Photos: Eine schnelle Anleitung Verbessern Sie Ihre Fotos mit dem neuen Ultra HDR-Tool von Google Photos und verwandeln Sie Standardbilder in lebendige Meisterwerke mit hohem Dynamik. Dieses Tool ist ideal für soziale Medien und steigert die Auswirkungen eines Fotos.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

ZendStudio 13.5.1 Mac
Leistungsstarke integrierte PHP-Entwicklungsumgebung

mPDF
mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

PHPStorm Mac-Version
Das neueste (2018.2.1) professionelle, integrierte PHP-Entwicklungstool

Dreamweaver CS6
Visuelle Webentwicklungstools