In diesem Artikel untersuchen wir, wie man KI-Agenten für die Websuche, Finanzanalyse, Argumentation und abrufgestützte Generierung mithilfe von Phidata und dem lokalen LLM von Ollama erstellt. Der Code verwendet das Modell llama3.2. Wenn Sie ein anderes Modell verwenden möchten, müssen Sie das Modell herunterladen, das Sie verwenden möchten, und die Variable model_id im Code ersetzen.
Was ist Phidat?
Eine Open-Source-Plattform zum Erstellen, Versenden und Überwachen von Agentensystemen.
https://www.phidata.com/
Was ist Ollama?
Ollama ist eine Plattform und ein Toolset, die die Bereitstellung und Verwendung lokaler großer Sprachmodelle (LLMs) vereinfachen sollen.
https://ollama.ai/
In diesem Artikel verwenden wir das Modell llama3.2.
ollama pull llama3.2
Was ist UV?
Ein extrem schneller Python-Paket- und Projektmanager, geschrieben in Rust.
https://github.com/astral-sh/uv
Wenn Sie kein UV verwenden möchten, können Sie Pip anstelle von UV verwenden. Dann müssen Sie pip install anstelle von uv add verwenden.
So installieren Sie UV
https://docs.astral.sh/uv/getting-started/installation/
Erstellen Sie einen Projektordner
Wenn Sie sich für die Verwendung von pip entschieden haben, müssen Sie einen Projektordner erstellen.
uv init phidata-ollama
Abhängigkeiten installieren
uv add phidata ollama duckduckgo-search yfinance pypdf lancedb tantivy sqlalchemy
In diesem Artikel werden wir versuchen, 5 KI-Agenten mit Phidata und Ollama zu erstellen.
Hinweis: Bevor Sie beginnen, stellen Sie sicher, dass Ihr Ollama-Server läuft, indem Sie „Ollama Serve“ ausführen.
Erstellen Sie einen Web-Suchagenten
Der erste Agent, den wir erstellen werden, ist ein Websuchagent, der die Suchmaschine DuckDuckGo verwendet.
from phi.agent import Agent from phi.model.ollama import Ollama from phi.tools.duckduckgo import DuckDuckGo model_id = "llama3.2" model = Ollama(id=model_id) web_agent = Agent( name="Web Agent", model=model, tools=[DuckDuckGo()], instructions=["Always include sources"], show_tool_calls=True, markdown=True, ) web_agent.print_response("Tell me about OpenAI Sora?", stream=True)
Ausgabe:
┏━ Message ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ Tell me about OpenAI Sora? ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛ ┏━ Response (12.0s) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ ┃ ┃ • Running: duckduckgo_news(query=OpenAI Sora) ┃ ┃ ┃ ┃ OpenAI's Sora is a video-generating model that has been trained on ┃ ┃ copyrighted content, which has raised concerns about its legality. ┃ ┃ According to TechCrunch, it appears that OpenAI trained Sora on game ┃ ┃ content, which could be a problem. Additionally, MSN reported that the ┃ ┃ model doesn't feel like the game-changer it was supposed to be. ┃ ┃ ┃ ┃ In other news, Yahoo reported that when asked to generate gymnastics ┃ ┃ videos, Sora produces horrorshow videos with whirling and morphing ┃ ┃ limbs. A lawyer told ExtremeTech that it's "overwhelmingly likely" that ┃ ┃ copyrighted materials are included in Sora's training dataset. ┃ ┃ ┃ ┃ Geeky Gadgets reviewed OpenAI's Sora, stating that while it is included ┃ ┃ in the 0/month Pro Plan, its standalone value for video generation ┃ ┃ is less clear compared to other options. ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
Erstellen Sie einen Finanzagenten
Der zweite Agent, den wir erstellen werden, ist ein Finanzagent, der Yfinance-Tools verwenden wird.
from phi.agent import Agent from phi.model.ollama import Ollama from phi.tools.yfinance import YFinanceTools model_id = "llama3.2" model = Ollama(id=model_id) finance_agent = Agent( name="Finance Agent", model=model, tools=[YFinanceTools(stock_price=True, analyst_recommendations=True, company_info=True, company_news=True)], instructions=["Use tables to display data"], show_tool_calls=True, markdown=True, ) finance_agent.print_response("Summarize analyst recommendations for NVDA", stream=True)
Ausgabe:
┏━ Message ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ Summarize analyst recommendations for NVDA ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛ ┏━ Response (3.9s) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ ┃ ┃ • Running: get_analyst_recommendations(symbol=NVDA) ┃ ┃ ┃ ┃ Based on the analyst recommendations, here is a summary: ┃ ┃ ┃ ┃ • The overall sentiment is bullish, with 12 strong buy and buy ┃ ┃ recommendations. ┃ ┃ • There are no strong sell or sell recommendations. ┃ ┃ • The average price target for NVDA is around 0-0. ┃ ┃ • Analysts expect NVDA to continue its growth trajectory, driven by ┃ ┃ its strong products and services in the tech industry. ┃ ┃ ┃ ┃ Please note that these recommendations are subject to change and may ┃ ┃ not reflect the current market situation. It's always a good idea to do ┃ ┃ your own research and consult with a financial advisor before making ┃ ┃ any investment decisions. ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
Erstellen Sie ein Agententeam
Der dritte Agent, den wir erstellen werden, ist ein Agententeam, das die Suchmaschine DuckDuckGo und die YFinance-Tools verwendet.
from phi.agent import Agent from phi.model.ollama import Ollama from phi.tools.duckduckgo import DuckDuckGo from phi.tools.yfinance import YFinanceTools web_instructions = 'Always include sources' finance_instructions = 'Use tables to display data' model_id = "llama3.2" model = Ollama(id=model_id) web_agent = Agent( name="Web Agent", role="Search the web for information", model=model, tools=[DuckDuckGo()], instructions=[web_instructions], show_tool_calls=True, markdown=True, ) finance_agent = Agent( name="Finance Agent", role="Get financial data", model=model, tools=[YFinanceTools(stock_price=True, analyst_recommendations=True, company_info=True)], instructions=[finance_instructions], show_tool_calls=True, markdown=True, ) agent_team = Agent( model=model, team=[web_agent, finance_agent], instructions=[web_instructions, finance_instructions], show_tool_calls=True, markdown=True, ) agent_team.print_response("Summarize analyst recommendations and share the latest news for NVDA", stream=True)
Erstellen Sie einen Inferenzagenten
Der vierte Agent, den wir erstellen werden, ist ein Inferenzagent, der eine Aufgabe verwendet.
from phi.agent import Agent from phi.model.ollama import Ollama model_id = "llama3.2" model = Ollama(id=model_id) task = ( "Three missionaries and three cannibals want to cross a river." "There is a boat that can carry up to two people, but if the number of cannibals exceeds the number of missionaries, the missionaries will be eaten." ) reasoning_agent = Agent(model=model, reasoning=True, markdown=True, structured_outputs=True) reasoning_agent.print_response(task, stream=True, show_full_reasoning=True)
Ausgabe:
┏━ Message ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ Three missionaries and three cannibals want to cross a river.There is a ┃ ┃ boat that can carry up to two people, but if the number of cannibals ┃ ┃ exceeds the number of missionaries, the missionaries will be eaten. ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛ [Reasoning steps and output as in the original document]
Erstellen Sie einen RAG-Agenten
Der fünfte Agent, den wir erstellen werden, ist ein RAG-Agent, der eine PDF-Wissensdatenbank und eine LanceDB-Vektordatenbank verwendet.
from phi.agent import Agent from phi.model.openai import OpenAIChat from phi.embedder.openai import OpenAIEmbedder from phi.embedder.ollama import OllamaEmbedder from phi.model.ollama import Ollama from phi.knowledge.pdf import PDFUrlKnowledgeBase from phi.vectordb.lancedb import LanceDb, SearchType model_id = "llama3.2" model = Ollama(id=model_id) embeddings = OllamaEmbedder().get_embedding("The quick brown fox jumps over the lazy dog.") knowledge_base = PDFUrlKnowledgeBase( urls=["https://phi-public.s3.amazonaws.com/recipes/ThaiRecipes.pdf"], vector_db=LanceDb( table_name="recipes", uri="tmp/lancedb", search_type=SearchType.vector, embedder=OllamaEmbedder(), ), ) knowledge_base.load() agent = Agent( model=model, knowledge=knowledge_base, show_tool_calls=True, markdown=True, ) agent.print_response("Please tell me how to make green curry.", stream=True)
Ausgabe:
uv run rag_agent.py WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first INFO Creating collection INFO Loading knowledge base INFO Reading: https://phi-public.s3.amazonaws.com/recipes/ThaiRecipes.pdf WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first WARNING model "openhermes" not found, try pulling it first INFO Added 14 documents to knowledge base WARNING model "openhermes" not found, try pulling it first ERROR Error searching for documents: list index out of range ┏━ Message ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ Please tell me how to make green curry. ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛ ┏━ Response (5.4s) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ ┃ ┃ • Running: search_knowledge_base(query=green curry recipe) ┃ ┃ ┃ ┃ ┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ ┃ ┃ Green Curry Recipe ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛ ┃ ┃ ┃ ┃ ** Servings: 4-6 people** ┃ ┃ ┃ ┃ Ingredients: ┃ ┃ ┃ ┃ • 2 tablespoons vegetable oil ┃ ┃ • 2 cloves garlic, minced ┃ ┃ • 1 tablespoon grated fresh ginger ┃ ┃ • 2 tablespoons Thai red curry paste ┃ ┃ • 2 cups coconut milk ┃ ┃ • 1 cup mixed vegetables (such as bell peppers, bamboo shoots, and ┃ ┃ Thai eggplant) ┃ ┃ • 1 pound boneless, skinless chicken breasts or thighs, cut into ┃ ┃ bite-sized pieces ┃ ┃ • 2 tablespoons fish sauce ┃ ┃ • 1 tablespoon palm sugar ┃ ┃ • 1/4 teaspoon ground white pepper ┃ ┃ • Salt to taste ┃ ┃ • Fresh basil leaves for garnish ┃ ┃ ┃ ┃ Instructions: ┃ ┃ ┃ ┃ 1 Prepare the curry paste: In a blender or food processor, combine the ┃ ┃ curry paste, garlic, ginger, fish sauce, palm sugar, and white ┃ ┃ pepper. Blend until smooth. ┃ ┃ 2 Heat oil in a pan: Heat the oil in a large skillet or Dutch oven ┃ ┃ over medium-high heat. ┃ ┃ 3 Add the curry paste: Pour the blended curry paste into the hot oil ┃ ┃ and stir constantly for 1-2 minutes, until fragrant. ┃ ┃ 4 Add coconut milk: Pour in the coconut milk and bring the mixture to ┃ ┃ a simmer. ┃ ┃ 5 Add vegetables and chicken: Add the mixed vegetables and chicken ┃ ┃ pieces to the pan. Stir gently to combine. ┃ ┃ 6 Reduce heat and cook: Reduce the heat to medium-low and let the ┃ ┃ curry simmer, uncovered, for 20-25 minutes or until the chicken is ┃ ┃ cooked through and the sauce has thickened. ┃ ┃ 7 Season with salt and taste: Season the curry with salt to taste. ┃ ┃ Serve hot garnished with fresh basil leaves. ┃ ┃ ┃ ┃ Tips and Variations: ┃ ┃ ┃ ┃ • Adjust the level of spiciness by using more or less Thai red curry ┃ ┃ paste. ┃ ┃ • Add other protein sources like shrimp, tofu, or tempeh for a ┃ ┃ vegetarian or vegan option. ┃ ┃ • Experiment with different vegetables, such as zucchini or carrots, ┃ ┃ to add variety. ┃ ┃ ┃ ┃ Tools Used: Python ┃ ┃ ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
Abschluss
In diesem Artikel haben wir untersucht, wie man mithilfe von Phidata und dem lokalen LLM von Ollama KI-Agenten für die Websuche, Finanzanalyse, Argumentation und abrufgestützte Generierung erstellt.
Das obige ist der detaillierte Inhalt vonAufbau I Agenten mit Phidata und Ollama. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Lösung für Erlaubnisprobleme beim Betrachten der Python -Version in Linux Terminal Wenn Sie versuchen, die Python -Version in Linux Terminal anzuzeigen, geben Sie Python ein ...

In diesem Artikel wird erklärt, wie man schöne Suppe, eine Python -Bibliothek, verwendet, um HTML zu analysieren. Es beschreibt gemeinsame Methoden wie find (), find_all (), select () und get_text () für die Datenextraktion, die Behandlung verschiedener HTML -Strukturen und -Anternativen (SEL)

Das Statistikmodul von Python bietet leistungsstarke Datenstatistikanalysefunktionen, mit denen wir die allgemeinen Merkmale von Daten wie Biostatistik und Geschäftsanalyse schnell verstehen können. Anstatt Datenpunkte nacheinander zu betrachten, schauen Sie sich nur Statistiken wie Mittelwert oder Varianz an, um Trends und Merkmale in den ursprünglichen Daten zu ermitteln, die möglicherweise ignoriert werden, und vergleichen Sie große Datensätze einfacher und effektiv. In diesem Tutorial wird erläutert, wie der Mittelwert berechnet und den Grad der Dispersion des Datensatzes gemessen wird. Sofern nicht anders angegeben, unterstützen alle Funktionen in diesem Modul die Berechnung der Mittelwert () -Funktion, anstatt einfach den Durchschnitt zu summieren. Es können auch schwimmende Punktzahlen verwendet werden. zufällig importieren Statistiken importieren Aus Fracti

Dieser Artikel vergleicht TensorFlow und Pytorch für Deep Learning. Es beschreibt die beteiligten Schritte: Datenvorbereitung, Modellbildung, Schulung, Bewertung und Bereitstellung. Wichtige Unterschiede zwischen den Frameworks, insbesondere bezüglich des rechnerischen Graps

In dem Artikel werden beliebte Python-Bibliotheken wie Numpy, Pandas, Matplotlib, Scikit-Learn, TensorFlow, Django, Flask und Anfragen erörtert, die ihre Verwendung in wissenschaftlichen Computing, Datenanalyse, Visualisierung, maschinellem Lernen, Webentwicklung und h beschreiben

Dieser Artikel führt die Python-Entwickler in den Bauen von CLIS-Zeilen-Schnittstellen (CLIS). Es werden mit Bibliotheken wie Typer, Click und ArgParse beschrieben, die Eingabe-/Ausgabemedelung betonen und benutzerfreundliche Designmuster für eine verbesserte CLI-Usabilität fördern.

Bei der Verwendung von Pythons Pandas -Bibliothek ist das Kopieren von ganzen Spalten zwischen zwei Datenrahmen mit unterschiedlichen Strukturen ein häufiges Problem. Angenommen, wir haben zwei Daten ...

Der Artikel erörtert die Rolle virtueller Umgebungen in Python und konzentriert sich auf die Verwaltung von Projektabhängigkeiten und die Vermeidung von Konflikten. Es beschreibt ihre Erstellung, Aktivierung und Vorteile bei der Verbesserung des Projektmanagements und zur Verringerung der Abhängigkeitsprobleme.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

mPDF
mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

MinGW – Minimalistisches GNU für Windows
Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

ZendStudio 13.5.1 Mac
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung