Heim >Technologie-Peripheriegeräte >KI >Amazon Nova Models: Ein Leitfaden mit Beispielen
Amazon hat eine neue Generation von modernen Basismodellsuiten auf den Markt gebracht, um eine kostengünstige und großflächige Verwendung zu ermöglichen. Nova tritt jetzt zu dem LLM -Ökosystem von Amazon, der in seinen Amazon -Bedrock -Service integriert ist, und unterstützt mehrere Modi wie Text, Bild und Videogenerierung.
In diesem Artikel wird die neuen Amazon Nova-Modelle beschrieben, erklärt, wie Sie über den Grundgesteinsdienst auf sie zugreifen, die Funktionen und Vorteile jedes Modells hervorheben und seine praktischen Anwendungen, einschließlich der Integration in Multi-Agent-Anwendungen, demonstrieren.
Amazon ist das mit Spannung erwartete zugrunde liegende Modell, das über den Amazon -Grundgesteinsdienst zugänglich ist. Sie sind für eine Vielzahl von Anwendungen ausgelegt, darunter kostengünstige, schnelle Argumente, Multimedia-Verständnis und kreative Inhaltsgenerierung. Lassen Sie uns jedes Modell untersuchen.
Das schnellste Modell in der Serie mit der höchsten Geschwindigkeit und niedrigen Rechenkosten. Für Anwendungen, die eine schnelle, nur Text-Generation erfordern, eignet sich Micro am besten mit Inferenzgeschwindigkeiten von 200 Token pro Sekunde.
Einige der besten Anwendungen von MICRO umfassen Echtzeitanalysen, interaktive Chatbots und hochverfaltige Textgenerierungsdienste.
Nova Micro Benchmark. (Quelle: Amazon)
Das kostengünstige multimodale Mitglied der Nova-Familie schlägt ein gutes Gleichgewicht zwischen Geschwindigkeit und hoher Genauigkeit über mehrere Aufgaben hinweg, insbesondere bei Inferenz- und Übersetzungsaufgaben im Vergleich zu ähnlichen Produkten wie GPT-4O oder LLAMA.
kann eine große Anzahl von Anforderungen effizient bearbeiten und gleichzeitig eine hohe Genauigkeit beibehalten. Bei Anwendungen, bei denen Geschwindigkeit sehr wichtig ist und Modelle erfordern, die mehrere Modalitäten verarbeiten können, ist Lite möglicherweise die beste Wahl.
Nova Lite Benchmark. (Quelle: Amazon)
Das fortschrittlichste Modell für die Textverarbeitung in der Nova -Familie bietet Nova Pro eine beeindruckende Genauigkeit, während sie im Vergleich zu Modellen mit ähnlichen Funktionen relativ geringe Rechenkosten im Vergleich zu relativ geringen Kosten haben.
Laut Amazon ist Nova Pro ideal für Anwendungen wie Videoübersicht, Frage und Antwort, mathematisches Denken, Softwareentwicklung und KI-Agenten, die mehrstufige Workflows durchführen können. Wie die Micro- und Lite-Modelle unterstützt Nova Pro derzeit die Feinabstimmung.
Nova Pro Benchmark. (Quelle: Amazon)
Das leistungsstärkste multimodale Modell in dieser Serie, das voraussichtlich Anfang 2025 gestartet wird, wird voraussichtlich eine verbesserte Version des Pro -Modells sein.
Leinwand ist die Lösung der Bildgenerierung von Nova. Es kann qualitativ hochwertige Bilder erzeugen, Farbschemata und -stile steuern und Funktionen wie Reparatur, erweiterte Bilder, Stilumwandlung und Hintergrundentfernung bereitstellen. Dieses Modell scheint sehr effektiv für die Erstellung von Marketingbildern, Produktmessungen und mehr zu sein.
Nova Reel ist ein Modellgenerierungsmodell, das eine qualitativ hochwertige und einfach zugeschnittene Videoausgabe bietet. Mit Nova Reel können Benutzer den visuellen Stil, den Rhythmus und die Kamerabewegung im Video erstellen und steuern. Wie andere Nova-Modelle verfügt Reel enthält integrierte Sicherheitskontrollen für die konsistente Inhaltsgenerierung.
Sie können den Amazon-Grundgestein-Spielplatz verwenden, um mehrere Modelle mit einer Benutzeroberfläche zu testen und zu vergleichen.
Ich gehe davon aus, dass Sie die Amazon CLI und das Grundgestein konfiguriert haben und verfügbar sind. Wenn nicht, können Sie sich auf mein Tutorial zum AWS-Multi-Agent-Koordinator beziehen, in dem ich die Schritte zur Einrichtung einer Umgebung unter Verwendung des vom Grundgesteinsdienstes bereitgestellten Modells ausführte. Darüber hinaus bietet der Blog-Beitrag von Nils Durner Schritt für Schritt Screenshots, die Sie durch den Prozess der Einrichtung Ihres Grundgesteinsdienstes führen.
Amazon Bettrock -Spielplatz
Beim Vergleich von Nova Micro und Pro stellte ich fest, dass die Genauigkeitslücke zwischen den beiden Modellen nicht offensichtlich ist. Während Micro mehr als doppelt so schnell ist wie Pro, bietet es für die meisten regelmäßigen Anwendungsfälle genügend Antworten. Auf der anderen Seite neigt Profi dazu, etwas detailliertere und längere Antworten zu erzeugen.
Um das NOVA -Modell über die API zu verwenden und es in Ihren Code zu integrieren, stellen Sie zunächst sicher, dass Ihr AWS -Konto, AWS -CLI und der Zugriff auf das Modell korrekt eingerichtet werden (die Dokumentation enthält Anleitung dafür).
Installieren Sie als nächstes die Boto3 -Bibliothek, die Python SDK für AWS, mit der Sie ihre Modelle verwenden können.
<code>pip install boto3</code>
Sie können programmgesteuert mit dem Modell mit einem Skript wie unten gezeigt interagieren:
<code>import boto3 import json client = boto3.client(service_name="bedrock-runtime") messages = [ {"role": "user", "content": [{"text": "Write a short poem"}]}, ] model_response = client.converse( modelId="us.amazon.nova-lite-v1:0", messages=messages ) print("\n[Full Response]") print(json.dumps(model_response, indent=2)) print("\n[Response Content Text]") print(model_response["output"]["message"]["content"][0]["text"])</code>
Wir implementieren jetzt ein Demo -Projekt, um die Agentenfunktionen von Nova Micro zu testen. Wir werden das AWS-Multi-PROXY-Koordinator-Framework verwenden, um eine vereinfachte Python-Anwendung mit zwei Proxys einzurichten: Python Developer Agent und ML Expert Agent. Wenn Sie einen Koordinator einrichten möchten, können Sie diesen AWS-Multi-PROXY-Koordinatorhandbuch verwenden.
Wir werden auch Chainlit (ein Open -Source -Python -Paket) verwenden, um eine einfache Benutzeroberfläche für die Anwendung zu implementieren. Installieren Sie zuerst die erforderlichen Bibliotheken:
<code>chainlit==1.2.0 multi_agent_orchestrator==0.0.18</code>
Wir importieren zuerst die notwendigen Bibliotheken:
<code>import uuid import chainlit as cl from multi_agent_orchestrator.orchestrator import MultiAgentOrchestrator, OrchestratorConfig from multi_agent_orchestrator.classifiers import BedrockClassifier, BedrockClassifierOptions from multi_agent_orchestrator.agents import AgentResponse from multi_agent_orchestrator.agents import BedrockLLMAgent, BedrockLLMAgentOptions, AgentCallbacks from multi_agent_orchestrator.orchestrator import MultiAgentOrchestrator from multi_agent_orchestrator.types import ConversationMessage import asyncio import chainlit as cl</code>
Dieses Framework verwendet einen Klassifizierer, um den besten Proxy für eingehende Benutzeranforderungen auszuwählen. Wir verwenden "anthropic.claude-3-haiku-20240307-v1: 0" als Modell des Klassifikators.
<code>class ChainlitAgentCallbacks(AgentCallbacks): def on_llm_new_token(self, token: str) -> None: asyncio.run(cl.user_session.get("current_msg").stream_token(token)) # Initialize the orchestrator custom_bedrock_classifier = BedrockClassifier(BedrockClassifierOptions( model_id='anthropic.claude-3-haiku-20240307-v1:0', inference_config={ 'maxTokens': 500, 'temperature': 0.7, 'topP': 0.9 } )) orchestrator = MultiAgentOrchestrator(options=OrchestratorConfig( LOG_AGENT_CHAT=True, LOG_CLASSIFIER_CHAT=True, LOG_CLASSIFIER_RAW_OUTPUT=True, LOG_CLASSIFIER_OUTPUT=True, LOG_EXECUTION_TIMES=True, MAX_RETRIES=3, USE_DEFAULT_AGENT_IF_NONE_IDENTIFIED=False, MAX_MESSAGE_PAIRS_PER_AGENT=10, ), classifier=custom_bedrock_classifier )</code>
Als nächstes definieren wir zwei von Nova Micro angetriebene Wirkstoffe, die als Python -Entwicklerexperte und der andere als Experte für maschinelles Lernen fungieren.
<code>pip install boto3</code>
Schließlich setzen wir den Körper des Skripts so, dass die Kettenbeleuchtungs -Benutzeroberfläche Benutzeranforderungen und Proxy -Antworten verarbeiten kann.
<code>import boto3 import json client = boto3.client(service_name="bedrock-runtime") messages = [ {"role": "user", "content": [{"text": "Write a short poem"}]}, ] model_response = client.converse( modelId="us.amazon.nova-lite-v1:0", messages=messages ) print("\n[Full Response]") print(json.dumps(model_response, indent=2)) print("\n[Response Content Text]") print(model_response["output"]["message"]["content"][0]["text"])</code>
Das Ergebnis ist die Kettenbeleuchtungs -Benutzeroberfläche, mit der Sie nach Bedarf tatsächlich mit dem Nova -Modell chatten können.
Führen Sie unsere Anwendung auf Chainlit
ausBild- und Videogenerierungsmodelle sind auch über die API verfügbar. Sie können sich auf die Dokumentation für Skripte beziehen, die demonstrieren, wie sie verwendet werden.
Das Amazon Nova-Modell stellt einen wesentlichen Fortschritt im zugrunde liegenden Modell-Ökosystem dar, wobei die hochmoderne Genauigkeit, Geschwindigkeit, Kosteneffizienz und multimodale Fähigkeiten kombiniert werden. Da die Amazon LLM Suite mit der Einführung neuer Produkte wächst, wird sie zu einer leistungsstarken Option für den Aufbau kostengünstiger und skalierbarer Anwendungen hinter AWS.
Unabhängig davon, ob Sie eine Agent -KI -Anwendung entwickeln, erstellen Sie einen Chatbot für den Kundendienst oder die Erkundung als Entwickler, es ist eine lohnende Erfahrung, das Nova -Modell zu nutzen. Es ist auch hilfreich, Ihr Verständnis von AWS, Grundgestein und LLM -Tools von Amazon zu vertiefen.
In diesem Artikel stellen wir wichtige Aspekte dieser Modelle ein, wie man mit ihnen experimentiert und wie man grundlegende Proxy -AI -Anwendungen mithilfe des NOVA -Modells erstellt.
Erfahren Sie, wie Sie AWS -Dienste für Kosteneffizienz und Leistung optimieren. Lerne AWS
Diese überarbeitete Ausgabe behält die ursprüngliche Bedeutung und Struktur bei der Verwendung unterschiedlicher Formulierungen und Satzstrukturen.
Das obige ist der detaillierte Inhalt vonAmazon Nova Models: Ein Leitfaden mit Beispielen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!