ホームページ >テクノロジー周辺機器 >AI >Amazon Novaモデル:例を掲載したガイド
Amazonは、費用対効果の高い大規模な使用を可能にするように設計された新世代の最先端の基本モデルスイートを立ち上げました。 Novaは現在、AmazonのLLMエコシステムに参加し、Amazon Bedrock Serviceに統合されており、テキスト、画像、ビデオ生成などの複数のモードをサポートしています。
この記事では、新しいAmazon Novaモデルの概要を説明し、岩盤サービスを通じてそれらにアクセスする方法を説明し、各モデルの機能と利点を強調し、マルチエージェントアプリケーションへの統合を含む実用的なアプリケーションを実証します。Amazon Novaモデルは何ですか?
Amazon nova micro
Microの最高のアプリケーションには、リアルタイム分析、インタラクティブなチャットボット、およびトラフィックのテキスト生成サービスが含まれます。
Amazon Nova Lite
高精度を維持しながら、多数のリクエストを効率的に処理できます。速度が非常に重要であり、複数のモダリティを処理できるモデルが必要なアプリケーションの場合、ライトが最良の選択である場合があります。
nova liteベンチマーク。 (出典:Amazon)
Amazon Nova Pro
Novaファミリーでのテキスト処理の最先端のモデルであるNova Proは、同様の機能を持つモデルと比較して比較的低い計算コストで印象的な精度を提供します。
nova proベンチマーク。 (出典:Amazon)
このシリーズで最も強力なマルチモーダルモデルは、2025年初頭に発売される予定であるProモデルのアップグレードバージョンになると予想されています。
CanvasはNovaの画像生成ソリューションです。高品質の画像を生成し、配色とスタイルを制御し、修理、拡張画像、スタイル変換、バックグラウンドの削除などの機能を提供できます。このモデルは、マーケティング画像、製品のモックアップなどを作成するのに非常に効果的であるようです。
Nova Reelは、高品質で簡単にカスタマイズできるビデオ出力を提供するように設計されたビデオ生成モデルです。 Nova Reelを使用すると、ユーザーはビデオで視覚スタイル、リズム、カメラの動きを作成および制御できます。他のNOVAモデルと同様に、Reelには一貫したコンテンツ生成のための組み込みのセキュリティコントロールが付属しています。
Amazon Bedrock Playgroundを使用して、複数のモデルをすぐに使用できるユーザーインターフェイスとテストおよび比較できます。
Amazon CLIとBedrockを構成して利用できると思います。そうでない場合は、AWSマルチエージェントコーディネーターに関する私のチュートリアルを参照できます。ここでは、Bedrock Serviceが提供するモデルを使用して環境を設定する手順を詳しく説明します。さらに、Nils Durnerのブログ投稿では、岩盤サービスをセットアップするプロセスをガイドする段階的なスクリーンショットを提供します。
Amazon Bedrock Playground
Nova MicroとProを比較すると、2つのモデル間の精度のギャップが明らかではないことに気付きました。 MicroはProの2倍以上速いですが、ほとんどの通常のユースケースに十分な回答を提供します。一方、Proは、少し詳細で長い応答を生成する傾向があります。
APIを介してNOVAモデルを使用してコードに統合するには、まずAWSアカウント、AWS CLI、およびモデルへのアクセスが正しく設定されていることを確認します(ドキュメントはこれのガイダンスを提供します)。
次に、AWS用のPython SDKであるBoto3ライブラリをインストールします。これにより、モデルを使用できます。
<code>pip install boto3</code>
以下に示すように、スクリプトを使用してモデルとプログラム的に対話できます:
<code>import boto3 import json client = boto3.client(service_name="bedrock-runtime") messages = [ {"role": "user", "content": [{"text": "Write a short poem"}]}, ] model_response = client.converse( modelId="us.amazon.nova-lite-v1:0", messages=messages ) print("\n[Full Response]") print(json.dumps(model_response, indent=2)) print("\n[Response Content Text]") print(model_response["output"]["message"]["content"][0]["text"])</code>Nova MicroおよびAWS Multi-Agent Coordinatorを使用したデモプロジェクト
また、
ChainLit(オープンソースPythonパッケージ)を使用して、アプリケーションに簡単なUIを実装します。まず、必要なライブラリをインストールします:
<code>chainlit==1.2.0 multi_agent_orchestrator==0.0.18</code>最初に必要なライブラリをインポートします:
<code>import uuid import chainlit as cl from multi_agent_orchestrator.orchestrator import MultiAgentOrchestrator, OrchestratorConfig from multi_agent_orchestrator.classifiers import BedrockClassifier, BedrockClassifierOptions from multi_agent_orchestrator.agents import AgentResponse from multi_agent_orchestrator.agents import BedrockLLMAgent, BedrockLLMAgentOptions, AgentCallbacks from multi_agent_orchestrator.orchestrator import MultiAgentOrchestrator from multi_agent_orchestrator.types import ConversationMessage import asyncio import chainlit as cl</code>このフレームワークは、分類器を使用して、着信ユーザーリクエストに最適なプロキシを選択します。 「Anthropic.Claude-3-Haiku-20240307-V1:0」を分類器のモデルとして使用します。
<code>class ChainlitAgentCallbacks(AgentCallbacks): def on_llm_new_token(self, token: str) -> None: asyncio.run(cl.user_session.get("current_msg").stream_token(token)) # Initialize the orchestrator custom_bedrock_classifier = BedrockClassifier(BedrockClassifierOptions( model_id='anthropic.claude-3-haiku-20240307-v1:0', inference_config={ 'maxTokens': 500, 'temperature': 0.7, 'topP': 0.9 } )) orchestrator = MultiAgentOrchestrator(options=OrchestratorConfig( LOG_AGENT_CHAT=True, LOG_CLASSIFIER_CHAT=True, LOG_CLASSIFIER_RAW_OUTPUT=True, LOG_CLASSIFIER_OUTPUT=True, LOG_EXECUTION_TIMES=True, MAX_RETRIES=3, USE_DEFAULT_AGENT_IF_NONE_IDENTIFIED=False, MAX_MESSAGE_PAIRS_PER_AGENT=10, ), classifier=custom_bedrock_classifier )</code>次に、Nova Microを搭載した2つのエージェントを定義します。1つはPython開発者の専門家として機能し、もう1つは機械学習の専門家として機能します。
<code>pip install boto3</code>
最後に、チェーンライトUIがユーザー要求とプロキシ応答を処理できるように、スクリプトの本文を設定します。
<code>import boto3 import json client = boto3.client(service_name="bedrock-runtime") messages = [ {"role": "user", "content": [{"text": "Write a short poem"}]}, ] model_response = client.converse( modelId="us.amazon.nova-lite-v1:0", messages=messages ) print("\n[Full Response]") print(json.dumps(model_response, indent=2)) print("\n[Response Content Text]") print(model_response["output"]["message"]["content"][0]["text"])</code>
結果はチェーンライトUIであり、必要に応じてNOVAモデルと実際にチャットすることができます。
ChainLit
でアプリケーションを実行します画像生成モデルとビデオ生成モデルもAPIを介して利用できます。それらを使用する方法を示すスクリプトのドキュメントを参照できます。
Amazon Novaモデルは、最先端の精度、速度、費用対効果、およびマルチモーダル機能を組み合わせた、基礎となるモデルのエコシステムの主要な進歩を表しています。 Amazon LLM Suiteが新製品の発売により成長するにつれて、AWSの背後にある費用対効果の高いスケーラブルなアプリケーションを構築するための強力な選択肢になりつつあります。
エージェントAIアプリケーションを開発しているか、カスタマーサービスのためのチャットボットを作成したり、開発者として探索したりするかどうかは、NOVAモデルを使用しようとすることは価値のある体験です。また、AWS、Bedrock、AmazonのLLMツールについての理解を深めることも役立ちます。
この記事では、これらのモデルの重要な側面、それらの実験方法、NOVAモデルを使用して基本的なプロキシAIアプリケーションを構築する方法を紹介します。awsクラウドプラクティショナー
この改訂された出力は、異なる文言と文の構造を使用している間、元の意味と構造を維持します。
以上がAmazon Novaモデル:例を掲載したガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。