


Meine erste KI-Chat-App erstellen: Von DevOps lernen Pass AIs Ollama-Integration
Der Blog, den ich als Quelle verwendet habe:
https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib
Nachdem ich den Leitfaden von DevOps Pass AI zum Erstellen einer KI-App mit Ollama entdeckt hatte, beschloss ich, die Funktionsweise zu erkunden und meine Fragen und Erkenntnisse auf dem Weg zu dokumentieren. Folgendes habe ich beim Erstellen meiner ersten KI-Chat-Anwendung entdeckt.
Erste Fragen, die ich hatte
Als ich das Tutorial zum ersten Mal durchlas, kamen mir mehrere Fragen in den Sinn:
- Warum Ollama verwenden, anstatt direkte API-Aufrufe an OpenAI oder andere Dienste zu tätigen?
- Was macht Llama3 zu einer guten Wahl für ein lokales KI-Modell?
- Wie funktioniert die Persistenz des Chatverlaufs und warum ist sie wichtig?
Lassen Sie uns durchgehen, was ich gelernt habe, während ich jeden dieser Aspekte untersucht habe.
Grundlegendes zum lokalen KI-Setup
Das erste Interessante, was mir auffiel, war der Einsatz lokaler KI durch Ollama. Nachdem ich mich umgehört und getestet hatte, fand ich einige entscheidende Vorteile:
- Keine API-Kosten oder Nutzungsbeschränkungen
- Vollständige Privatsphäre, da alles lokal läuft
- Keine Internetabhängigkeit nach dem ersten Modell-Download
- Überraschend gute Leistung mit Llama3
Der Einrichtungsprozess war unkompliziert: (Bash)
Ollama servieren
ollama pull llama3
Anfangs hatte ich Bedenken wegen der Modellgröße von 4,7 GB, aber der Download verlief schnell über meine Verbindung und es läuft selbst auf meinem bescheidenen Entwicklungscomputer reibungslos.
Erkunden der Chat-Anwendung
Das Faszinierendste war, wie einfach und dennoch funktional die Chat-Anwendung ist. Lassen Sie uns zusammenfassen, was ich über die einzelnen Komponenten gelernt habe:
Chat-Verlaufsverwaltung
Ich war besonders neugierig, wie der Chatverlauf funktioniert. Der Code verwendet einen cleveren Ansatz: (python)
file_path = sys.argv[1] '.json'
wenn os.path.exists(file_path):
mit open(file_path, 'r') as f:
Nachrichten = json.load(f)
Das bedeutet, dass jede Chat-Sitzung ihre eigene Verlaufsdatei verwaltet. Ich habe dies getestet, indem ich mehrere Konversationen gestartet habe: (Bash)
python app1.py programming_help
python app1.py devops_queries
bashCopypython app1.py programming_help
python app1.py devops_queries
Jeder hat seine eigene JSON-Datei erstellt, um Konversationen getrennt und dauerhaft zu halten.
Die KI-Antwortverarbeitung
Eine Sache, die meine Aufmerksamkeit erregte, war die Implementierung der Streaming-Antwort:
pythonCopystream = ollama.chat(
model='llama3',
Nachrichten=Nachrichten,
stream=True,
)
für Chunk im Stream:
print(chunk['message']['content'], end='', flush=True)
Dies verleiht dem Gespräch ein viel natürlicheres Gefühl, da die Antworten nach und nach wie menschliches Tippen und nicht wie alle auf einmal erscheinen.
Testen verschiedener Anwendungsfälle
Ich habe mit verschiedenen Arten von Fragen experimentiert, um die Fähigkeiten des Modells zu verstehen:
Technische Fragen
Kopieren>>> Wie kann ich die Kubernetes-Überwachung einrichten?
Die Antworten waren detailliert und technisch korrekt.
Codegenerierung
Kopieren>>> Schreiben Sie eine Python-Funktion, um die CPU-Auslastung zu überwachen
Es wurden funktionierende Codebeispiele mit Erläuterungen bereitgestellt.
Kontextbezogene Gespräche
Kopieren>>> Was sind die Best Practices dafür?
Das Modell behielt den Kontext früherer Fragen effektiv bei.
Was ich über Leistung gelernt habe
Einige interessante Beobachtungen zum lokalen Ausführen von KI:
Die erste Reaktion nach dem Start ist etwas langsamer (Aufwärmen des Modells)
Nachfolgende Antworten erfolgen schnell
Die Antwortqualität entspricht vielen cloudbasierten Diensten
Keine Drosselung oder Ratenbegrenzungen, über die Sie sich Sorgen machen müssen
Fragen, die ich noch habe
Nachdem ich die Anwendung erstellt und getestet habe, bin ich neugierig auf:
Wie kann das Modell für bestimmte Anwendungsfälle optimiert werden?
Können wir das Modell für schnellere Antworten optimieren?
Wie geht man am besten mit Fehlern oder unerwarteten Reaktionen um?
Fazit: Lohnt sich der Bau?
Nachdem ich mit diesem Setup experimentiert habe, würde ich sagen, dass es auf jeden Fall einen Versuch wert ist, wenn Sie:
Möchten Sie mehr über KI-Integration erfahren
Brauchen Sie datenschutzorientierte KI-Lösungen
Sind daran interessiert, benutzerdefinierte KI-Tools zu entwickeln
Sie möchten API-Kosten für KI-Dienste vermeiden
Die Lernkurve ist überraschend sanft und die Ergebnisse sind beeindruckend für ein lokales Setup.
Fragen an die Community
Hat sonst noch jemand ähnliche lokale KI-Anwendungen erstellt?
Welche anderen Modelle haben Sie mit Ollama ausprobiert?
Wie gehen Sie mit Fehlerfällen in Ihren KI-Anwendungen um?
Lassen Sie es mich in den Kommentaren wissen – ich bin besonders daran interessiert, von verschiedenen Anwendungsfällen und Verbesserungen zu hören!
Das obige ist der detaillierte Inhalt vonMeine erste KI-Chat-App erstellen: Von DevOps lernen Pass AIs Ollama-Integration. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Die Flexibilität von Python spiegelt sich in Multi-Paradigm-Unterstützung und dynamischen Typsystemen wider, während eine einfache Syntax und eine reichhaltige Standardbibliothek stammt. 1. Flexibilität: Unterstützt objektorientierte, funktionale und prozedurale Programmierung und dynamische Typsysteme verbessern die Entwicklungseffizienz. 2. Benutzerfreundlichkeit: Die Grammatik liegt nahe an der natürlichen Sprache, die Standardbibliothek deckt eine breite Palette von Funktionen ab und vereinfacht den Entwicklungsprozess.

Python ist für seine Einfachheit und Kraft sehr beliebt, geeignet für alle Anforderungen von Anfängern bis hin zu fortgeschrittenen Entwicklern. Seine Vielseitigkeit spiegelt sich in: 1) leicht zu erlernen und benutzten, einfachen Syntax; 2) Reiche Bibliotheken und Frameworks wie Numpy, Pandas usw.; 3) plattformübergreifende Unterstützung, die auf einer Vielzahl von Betriebssystemen betrieben werden kann; 4) Geeignet für Skript- und Automatisierungsaufgaben zur Verbesserung der Arbeitseffizienz.

Ja, lernen Sie Python in zwei Stunden am Tag. 1. Entwickeln Sie einen angemessenen Studienplan, 2. Wählen Sie die richtigen Lernressourcen aus, 3. Konsolidieren Sie das durch die Praxis erlernte Wissen. Diese Schritte können Ihnen helfen, Python in kurzer Zeit zu meistern.

Python eignet sich für eine schnelle Entwicklung und Datenverarbeitung, während C für hohe Leistung und zugrunde liegende Kontrolle geeignet ist. 1) Python ist einfach zu bedienen, mit prägnanter Syntax, und eignet sich für Datenwissenschaft und Webentwicklung. 2) C hat eine hohe Leistung und eine genaue Kontrolle und wird häufig bei der Programmierung von Spielen und Systemen verwendet.

Die Zeit, die zum Erlernen von Python erforderlich ist, variiert von Person zu Person, hauptsächlich von früheren Programmiererfahrungen, Lernmotivation, Lernressourcen und -methoden und Lernrhythmus. Setzen Sie realistische Lernziele und lernen Sie durch praktische Projekte am besten.

Python zeichnet sich in Automatisierung, Skript und Aufgabenverwaltung aus. 1) Automatisierung: Die Sicherungssicherung wird durch Standardbibliotheken wie OS und Shutil realisiert. 2) Skriptschreiben: Verwenden Sie die PSUTIL -Bibliothek, um die Systemressourcen zu überwachen. 3) Aufgabenverwaltung: Verwenden Sie die Zeitplanbibliothek, um Aufgaben zu planen. Die Benutzerfreundlichkeit von Python und die Unterstützung der reichhaltigen Bibliothek machen es zum bevorzugten Werkzeug in diesen Bereichen.

Um die Effizienz des Lernens von Python in einer begrenzten Zeit zu maximieren, können Sie Pythons DateTime-, Zeit- und Zeitplanmodule verwenden. 1. Das DateTime -Modul wird verwendet, um die Lernzeit aufzuzeichnen und zu planen. 2. Das Zeitmodul hilft, die Studie zu setzen und Zeit zu ruhen. 3. Das Zeitplanmodul arrangiert automatisch wöchentliche Lernaufgaben.

Python zeichnet sich in Gaming und GUI -Entwicklung aus. 1) Spielentwicklung verwendet Pygame, die Zeichnungen, Audio- und andere Funktionen bereitstellt, die für die Erstellung von 2D -Spielen geeignet sind. 2) Die GUI -Entwicklung kann Tkinter oder Pyqt auswählen. Tkinter ist einfach und einfach zu bedienen. PYQT hat reichhaltige Funktionen und ist für die berufliche Entwicklung geeignet.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

SublimeText3 Linux neue Version
SublimeText3 Linux neueste Version

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

VSCode Windows 64-Bit-Download
Ein kostenloser und leistungsstarker IDE-Editor von Microsoft