Ich habe viel über Rag- und AI-Agenten gelesen, aber mit der Veröffentlichung neuer Modelle wie Deepseek V3 und Deepseek R1 scheint es, dass die Möglichkeit, effiziente Rag-Systeme zu bauen, erheblich verbessert hat, eine bessere Abrufgenauigkeit, eine verbesserte Argumentationsfunktionen und die skalierbaren Architekturen für reale Anwendungen bietet. Die Integration von ausgefeilteren Abrufmechanismen, verbesserten Feinabstimmungsoptionen und multimodalen Funktionen verändern die Art und Weise, wie KI-Agenten mit Daten interagieren. Es wirft Fragen darauf auf, ob traditionelle Lag -Ansätze immer noch der beste Weg sind oder ob neuere Architekturen effizientere und kontextbezogene Lösungen liefern können.
Abruf-general-aus-Generation (RAG) -Systeme haben die Art und Weise revolutioniert, wie AI-Modelle mit Daten interagieren, indem abrufbasierte und generative Ansätze kombiniert werden, um genauere und kontextbezogene Antworten zu erzielen. Mit dem Aufkommen von Deepseek R1 ist ein Open-Source-Modell, das für seine Effizienz und Kosteneffizienz bekannt ist, ein effektives Lappensystem zugänglicher und praktischer geworden. In diesem Artikel bauen wir ein Lappensystem mit Deepseek R1.
Inhaltsverzeichnis- Was ist Deepseek R1? Was ist Deepseek R1?
- Deepseek R1 ist ein Open-Source-AI-Modell, das entwickelt wurde und das Ziel ist, qualitativ hochwertige Argumentations- und Abruffunktionen zu einem Bruchteil der Kosten für proprietäre Modelle wie OpenAIs Angebote bereitzustellen. Es verfügt über eine MIT -Lizenz, wodurch es kommerziell rentabel und für eine Vielzahl von Anwendungen geeignet ist. Mit diesem leistungsstarken Modell können Sie das Kinderbett sehen, aber die OpenAI O1 und O1-Mini zeigen kein Argumentations-Token.
- , um zu wissen, wie Deepseek R1 das OpenAI O1 -Modell herausfordert: Deepseek R1 gegen OpenAI O1: Welches ist schneller, billiger und schlauer?
Vorteile der Verwendung von Deepseek R1 für RAG -System Aufbau eines RAG-Systems (Retrieval-Augmented Generation) mit Deepseek-R1 bietet mehrere bemerkenswerte Vorteile:
1. Fortgeschrittene Argumentationsfunktionen : Deepseek-R1 emuliert das menschliche Argumentation durch Analyse und Verarbeitung von Informationen Schritt für Schritt, bevor Sie Schlussfolgerungen ziehen. Dieser Ansatz verbessert die Fähigkeit des Systems, komplexe Abfragen zu bewältigen, insbesondere in Bereichen, die logische Inferenz, mathematisches Denken und Codierungsaufgaben erfordern.
2. Open-Source-Barrierefreiheit: Deepseek-R1 wurde unter der MIT-Lizenz veröffentlicht und ermöglicht den uneingeschränkten Zugang zu seinem Modell. Diese Offenheit erleichtert die Anpassung, Feinabstimmung und Integration in verschiedene Anwendungen ohne die häufig mit proprietären Modellen verbundenen Einschränkungen.
3. Wettbewerbsleistung : Benchmark-Tests zeigen, dass Deepseek-R1 in Aufgaben, die Argumentation, Mathematik und Codierung beinhalten, mit dem O1-O1 von OpenAI und sogar übertrifft oder sogar übertrifft. Diese Leistungsstufe stellt sicher, dass ein mit Deepseek-R1 erstellter Lappensystem qualitativ hochwertige, genaue Reaktionen für verschiedene und herausfordernde Fragen liefern kann.
4. Transparenz im Denkprozess : Deepseek-r1 verwendet eine „Kette der Gedanken“, wodurch seine Argumentationsschritte während der Inferenz sichtbar sind. Diese Transparenz hilft beim Debuggen und Verfeinern des Systems gleichzeitig das Aufbau von Benutzervertrauen durch klare Einblicke in den Entscheidungsprozess.
5. Kosteneffizienz : Die Open-Source-Natur von Deepseek-R1 beseitigt Lizenzgebühren, und seine effiziente Architektur verringert die Anforderungen an die Rechenressourcen. Diese Faktoren tragen zu einer kostengünstigeren Lösung für Organisationen bei, die anspruchsvolle Lag-Systeme implementieren möchten, ohne erhebliche Ausgaben zu erfüllen.
Integration von Deepseek-R1 in ein Lag-System bietet eine wirksame Kombination aus fortschrittlichen Argumentationsfähigkeiten, Transparenz, Leistung und Kosteneffizienz, was es zu einer überzeugenden Wahl für Entwickler und Organisationen macht, die ihre KI-Funktionen verbessern möchten.
Schritte zum Erstellen eines Lappensystems mit Deepseek R1
Das Skript ist eine RAG-Pipeline (Abrufen-ausgerastete Generation (RAG), die:
- lädt und verarbeitet ein PDF -Dokument , indem es in Seiten aufteilt und Text extrahiert wird.
- speichert vektorisierte Darstellungen des Textes in einer Datenbank (Chromadb).
- ruft relevante Inhalte mit Ähnlichkeitssuche ab, wenn eine Abfrage gefragt wird.
- verwendet ein LLM (Deepseek -Modell) , um Antworten basierend auf dem abgerufenen Text zu generieren.
Voraussetzungen installieren
- Download olama: Klicken Sie hier, um herunterzuladen
- Für Linux -Benutzer: Führen Sie den folgenden Befehl in Ihrem Terminal aus:
curl -fsSL https://ollama.com/install.sh | sh
Danach ziehen Sie den Deepseek R1: 1,5B mit:
ollama pull deepseek-r1:1.5b
Dies dauert einen Moment, um herunterzuladen:
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Öffnen Sie danach Ihr Jupyter -Notizbuch und beginnen Sie mit dem Codierungsteil:
1. Installieren Sie Abhängigkeiten
Vor dem Ausführen installiert das Skript die erforderlichen Python -Bibliotheken:
- Langchain → Ein Framework zum Erstellen von Anwendungen mit großer Sprachmodellen (LLMs).
- Langchain-OpenAI → Bietet Integration mit OpenAI-Diensten.
- Langchain-Community → Fügt Unterstützung für verschiedene Dokumentenlader und Dienstprogramme hinzu.
- Langchain-Chroma → Ermöglicht die Integration mit Chromadb, einer Vektor-Datenbank.
2. Geben Sie den OpenAI -API -Schlüssel
einUm auf das Einbettungsmodell von OpenAI zuzugreifen, fordert das Skript den Benutzer auf, die API -Schlüssel mit GetPass () sicher einzugeben. Dies verhindert, dass Anmeldeinformationen im Klartext aufgedeckt werden.
3. Umgebungsvariablen einrichtenDas Skript
speichert den API -Schlüssel als Umgebungsvariable. Auf diese Weise können andere Teile des Codes auf OpenAI Services ohne harte Anmeldeinformationen zugreifen, was die Sicherheit verbessert.
4. OpenAI -Einbettunginitialisieren
Das Skript initialisiert ein OpenAI-Einbettungsmodell mit dem Namen "Text-Embedding-3-Small". Dieses Modellwandelt Text in Vektor-Einbettung um, bei denen hochwertige numerische Darstellungen der Bedeutung des Textes sind. Diese Einbettungen werden später verwendet, um ähnliche Inhalte zu vergleichen und abzurufen. 5. Laden und teilen Sie ein PDF -Dokument
aufEine PDF -Datei (agenticai.pdf) wird
geladen und in Seitenaufgeteilt. Jeder Seitentext wird extrahiert, wodurch kleinere und überschaubarere Textbrocken anstatt das gesamte Dokument als einzelne Einheit zu verarbeiten. .
6. Erstellen und speichern Sie eine Vektordatenbank- Der extrahierte Text aus dem PDF wird
- in Vektor -Emettdings . konvertiert Diese Einbettungen werden
- in Chromadb , einer Hochleistungsdatenbank Vektor, gespeichert. . Die Datenbank verwendet
- Cosinus -Ähnlichkeit , um ein effizientes Abrufen des Textes mit einem hohen Grad an semantischer Ähnlichkeit zu gewährleisten.
ab
aretriever wird unter Verwendung von Chromadb erstellt, was:
- sucht nach den Top 3 ähnlichsten Dokumente basierend auf einer bestimmten Abfrage. filtert Ergebnisse basierend auf einem Ähnlichkeitsschwellenwert von 0,3, was bedeutet, dass Dokumente mindestens 30% Ähnlichkeit haben müssen, um als relevant zu qualifizieren.
Es werden zwei Testabfragen verwendet:
- "Was ist die alte Hauptstadt Indiens?"
-
- Es wurden keine Ergebnisse gefunden , was darauf hinweist, dass die gespeicherten Dokumente keine relevanten Informationen enthalten.
"Was ist Agentic Ai?"
-
- ruft den relevanten Text erfolgreich ab und zeigt, dass das System einen sinnvollen Kontext holen kann.
Das Skript legt eine
RAG -Pipeline fest, die sicherstellt, dass: Anstelle von OpenAIs GPT lädt das Skript Deepseek-R1 (1,5B-Parameter) , ein leistungsstarkes LLM, das für retrievale Aufgaben optimiert ist. Langchains retrievales Modul wird verwendet, um: Das Skript führt eine Testabfrage aus:
Das llm erzeugt eine faktenbasierte Antwort
Das System ruft relevante Informationen aus der Datenbank
Langchain -Syntax für die Lappenkette
Schlussfolgerung
Möchten Sie Anwendungen mit Deepseek erstellen? Kasse unseren kostenlosen Deepseek -Kurs heute!
10. Laden Sie eine Verbindung zu einem LLM (Deepseek -Modell)
11. Erstellen Sie eine Kette basierte Kette
12. Testen Sie die Lappenkette
"Erzählen Sie den Perspektiven der Führungskräfte auf agentische AI" ab
Code zum Erstellen eines Lappensystems mit Deepseek R1
OpenAI- und Langchain -Abhängigkeiten installieren curl -fsSL https://ollama.com/install.sh | sh
Geben Sie die Öffnen von AI API -Schlüssel ein ollama pull deepseek-r1:1.5b
Umgebungsvariablen ollama pull deepseek-r1:1.5b
pulling manifest
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB
pulling 369ca498f347... 100% ▕████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B
pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
!pip install langchain==0.3.11
!pip install langchain-openai==0.2.12
!pip install langchain-community==0.3.11
!pip install langchain-chroma==0.1.4
Öffnen von AI -Einbettungsmodellen
from getpass import getpass
OPENAI_KEY = getpass('Enter Open AI API Key: ')
Erstellen Sie einen Vektor -DB und bestehen auf der Festplatte
import os
os.environ['OPENAI_API_KEY'] = OPENAI_KEY
from langchain_openai import OpenAIEmbeddings
openai_embed_model = OpenAIEmbeddings(model='text-embedding-3-small')
Ähnlichkeit mit Schwellenwert Abruf from langchain_community.document_loaders import PyPDFLoader
loader = PyPDFLoader('AgenticAI.pdf')
pages = loader.load_and_split()
texts = [doc.page_content for doc in pages]
from langchain_chroma import Chroma
chroma_db = Chroma.from_texts(
texts=texts,
collection_name='db_docs',
collection_metadata={"hnsw:space": "cosine"}, # Set distance function to cosine
embedding=openai_embed_model
)
similarity_threshold_retriever = chroma_db.as_retriever(search_type="similarity_score_threshold",search_kwargs={"k": 3,"score_threshold": 0.3})
query = "what is the old capital of India?"
top3_docs = similarity_threshold_retriever.invoke(query)
top3_docs
bauen Sie eine Lappenkette
[]
Verbindung zu LLM
laden
query = "What is Agentic AI?"
top3_docs = similarity_threshold_retriever.invoke(query)
top3_docs
Wie kann man Deepseek Janus Pro 7b?
zugreifen
Das obige ist der detaillierte Inhalt vonWie baue ich ein Lappensystem mit Deepseek R1?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Cyberangriffe entwickeln sich weiter. Vorbei sind die Tage generischer Phishing -E -Mails. Die Zukunft der Cyberkriminalität ist hyperpersonalisiert und nutzt leicht verfügbare Online-Daten und KI, um hoch gezielte Angriffe zu erzeugen. Stellen Sie sich einen Betrüger vor, der Ihren Job kennt, Ihr F.

In seiner Eröffnungsrede an das College of Cardinals diskutierte der in Chicago geborene Robert Francis Prevost, der neu gewählte Papst Leo XIV, den Einfluss seines Namensvetters, Papst Leo XIII., Dessen Papsttum (1878-1903) mit der Dämmerung des Automobils und der Dämmerung des Automobils und des Automobils zusammenfiel

Ich stimme voll und ganz zu. Mein Erfolg ist untrennbar mit der Anleitung meiner Mentoren verbunden. Ihre Einsichten, insbesondere in Bezug auf das Geschäftsmanagement, bildeten das Fundament meiner Überzeugungen und Praktiken. Diese Erfahrung unterstreicht mein Engagement für Mentor

KI verbesserte Bergbaugeräte Die Bergbaubetriebumgebung ist hart und gefährlich. Künstliche Intelligenzsysteme verbessern die Gesamteffizienz und -sicherheit, indem Menschen aus den gefährlichsten Umgebungen entfernt und die Fähigkeiten des Menschen verbessert werden. Künstliche Intelligenz wird zunehmend verwendet, um autonome LKWs, Übungen und Lader, die in Bergbauvorgängen verwendet werden, zu betreiben. Diese KI-betriebenen Fahrzeuge können in gefährlichen Umgebungen genau arbeiten und so die Sicherheit und Produktivität erhöhen. Einige Unternehmen haben autonome Bergbaufahrzeuge für groß angelegte Bergbaubetriebe entwickelt. Geräte, die in anspruchsvollen Umgebungen betrieben werden, erfordert eine kontinuierliche Wartung. Wartung kann jedoch kritische Geräte offline halten und Ressourcen konsumieren. Genauere Wartung bedeutet eine höhere Fahrt für teure und notwendige Geräte und erhebliche Kosteneinsparungen. AI-gesteuert

Marc Benioff, CEO von Salesforce, prognostiziert eine monumentale Revolution am Arbeitsplatz, die von AI -Agenten angetrieben wird, eine Transformation, die bereits innerhalb von Salesforce und seiner Kundenstamme im Gange ist. Er stellt sich eine Verlagerung von traditionellen Märkten zu einem weitaus größeren Markt vor, auf den sich konzentriert wird

Der Aufstieg der KI in der Personalabteilung: Navigation einer Belegschaft mit Roboterkollegen Die Integration von KI in die Personalabteilung (HR) ist kein futuristisches Konzept mehr. Es wird schnell zur neuen Realität. Diese Verschiebung wirkt sich sowohl auf HR -Fachkräfte als auch Mitarbeiter aus, DEM aus.

Ihr Umsatzbruch liegt direkt vor Ihnen. Brechen Sie die Decke und bringen Sie Ihr Geschäft auf ein ganz neues Niveau. Das ist möglich. Kopieren Sie den Inhalt der quadratischen Halterung in ChatGPT ein, fügen Sie und ändern Sie das gleiche Chat -Fenster, damit der Kontext fortgesetzt wird. Umsatzbarrieren mit ChatGPT abbauen: Geben Sie Ihr Wachstumspotenzial aus 10 -mal die Wachstumsdichtung Ihre Ziele sind langweilig. Die Geschäftsvision, die Sie einmal erregt, fühlt sich jetzt schmerzlich sicher. Sie erreichen Ihr Ziel, aber Sie fühlen sich leer. Erfolg basiert nicht auf Glück. Sie setzen mutige Ziele, die sowohl erschreckend als auch aufregend sind. Sie sehen Geschäft als Spiel und Sie auch. Höhere Wetten verfolgen. Der Traum ist größer. Der Plan ist größer. Mehr ausführen. Sehen Sie sich Ihre Ergebnisse an

Lassen Sie uns den aufregenden Schnittpunkt von Romantik und generativer KI untersuchen. Diese Analyse ist Teil meiner laufenden Forbes -Spalte zu den neuesten Fortschritten von AI, wobei der Schwerpunkt auf den wirkungsvollen KI -Komplexitäten liegt (siehe Link hier). Romantik neu definieren: eine moderne Perspektive Wir haben


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

SAP NetWeaver Server-Adapter für Eclipse
Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

MinGW – Minimalistisches GNU für Windows
Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

ZendStudio 13.5.1 Mac
Leistungsstarke integrierte PHP-Entwicklungsumgebung
