自己認識 AI: AutoGPT

WBOY
WBOY転載
2023-05-25 10:28:202006ブラウズ

1. はじめに

ChatGPT は現在非常に人気があります。自然言語処理モデルのリーダーとしての ChatGPT の利点は、スムーズで一貫した会話を生成できると同時に、コンテキストを理解できることです。そしてコンテキストに従って行動します。さまざまなアプリケーション シナリオに合わせて迅速にカスタマイズでき、たとえば、顧客サービス、教育、エンターテイメントなどの分野で、ChatGPT をインテリジェント アシスタントとして使用して、ユーザーに便利なサービスとエンターテイメント体験を提供できます。

GPT-3 から GPT-4 まで、高度な推論、入力設定、動作の微調整、およびより長いコンテキスト情報の理解という点で、ChatGPT が継続的な最適化トレーニングにおいて大幅な進歩を遂げていることがわかります。

しかし、このインタラクティブな GPT モデルについては、むしろ、映画に登場する人工知能のような、自己認識と、自ら学習して進化する能力を備えたモデルであることを望んでいます。頻繁な指導や対話は必要なく、目標を提案するだけで、AIが実行計画や論理処理をすべて自律的に実行し、自己実証と最適化を継続して最終的に提案した目標を達成します。

そこで今日登場したのが、ChatGPT の進化版である AutoGPT です。

2. AutoGPT とは何ですか?

AutoGPT は、OpenAI の GPT-4 言語モデルを活用して、完全に自律的でカスタマイズ可能な AI エージェントを作成する実験的なオープン ソース アプリケーションです。トーラン・ブルース・リチャーズによって2023年3月30日にリリースされた。

ゲーム開発者のトランは、Significant Gravitas というゲーム会社を設立しました。

わずか 1 か月あまりで、AutoGPT の Git プロジェクトは 120 万以上のスターを獲得しました。完全に自律的に実行される GPT-4 の最初の例の 1 つとして、AutoGPT は AI の可能性の限界を突破しました。

自己認識 AI: AutoGPT

AutoGPT は、他の AI ツールと比較して、独立して実行されるという点で独特です。つまり、ニーズに合わせてモデルを操作する必要がなくなりました。代わりに、目標を書き留めるだけで、残りは AI が代わりにやってくれます。その結果、AutoGPT は AI と人間の対話方法を根本的に変え、人間が積極的な役割を果たす必要がなくなり、同時に ChatGPT などの他の AI アプリケーションと同等以上の結果の品質を維持します。

3. AutoGPT はどのように機能しますか?

AutoGPT は自律型 AI メカニズムに基づいて動作し、AI システムは次のような特定のタスクを満たすさまざまな AI エージェントを作成します。

  • タスク作成エージェント: ターゲットを入力したときAutoGPT では、タスク作成エージェントと対話する最初の AI エージェントです。あなたの目標に基づいて、タスクとそれを達成するためのステップのリストを作成し、優先エージェントに送信します。
  • Task Priority Agent: タスクのリストを受信した後、Priority AI エージェントは、実行エージェントに送信する前に、順序が正しく論理的であることを確認します。
  • タスク実行エージェント: 優先順位付けが完了すると、実行エージェントはタスクを 1 つずつ完了します。これには、GPT-4、インターネット、その他のリソースを活用して結果を取得することが含まれます。

自己認識 AI: AutoGPT

#上記のエージェントは相互に通信します。したがって、実行エージェントがすべてのタスクを完了し、その結果が満足できない場合、タスク作成エージェントと通信して新しいタスク リストを作成できます。ユーザー定義の目標がすべて完了するまで、3 つのエージェント間で反復ループが行われます。

AI エージェントのアクションは、思考、推論、計画、判断の 4 つのグループに分けてユーザー インターフェイスにも表示されます。

    思考: AI エージェントはターゲットについての考えを共有します。
  • REASONING: AI エージェントの推論がどのように開発され、そのアイデアが実現されるか。
  • 計画 (PLAN): AI エージェントは分析を通じて、完了すべきタスクの計画を列挙します。
  • 判断 (批判): AI が自ら判断し、エラーを修正し、制限的な問題を克服します。
この計算プロセスを共有することにより、AutoGPT は試行錯誤のデモンストレーションを実施し、ユーザーの介入なしに遭遇するすべての問題を克服するために的を絞った最適化処理を実行できます。

4. AutoGPT と ChatGPT の比較?

基礎となる LLM モデルは同じですが、AutoGPT と ChatGPT の間には依然として多くの違いがあります。

4.1 リアルタイム インサイト

ChatGPT で使用される最新の GPT-4 モデルは、GPT-3.5 と同じデータでトレーニングされており、GPT-3.5 は 2021 年 9 月までのみ利用可能です。ChatGPT を使用してリアルタイムの分析情報を取得することはできません。時間データ情報。情報を取得したり抽出したりするために Web サイトやオンライン プラットフォームにアクセスできないためです。

対照的に、AutoGPT はインターネットにアクセスできます。インターネットをサーフィンできるだけでなく、ソースが正当なものかどうかを確認することもできます。さらに、AutoGPT は任意のプラットフォームにアクセスしてタスクを実行できます。たとえば、AI に製品の販売見込みを調査してアウトリーチ メールを送信するよう依頼すると、AI は Gmail アカウントを使用してメールの下書きを直接送信します。

4.2 メモリ管理

コンテキスト ウィンドウは、言語モデルが正確な答えを与えるために非常に重要です。ただし、GPT-4 のような LLM では、ウィンドウには 4000 ~ 8000 トークンの制限があります。したがって、要件が制限を超える場合、モデルはすべての指示に正しく従わない可能性があり、あるいは接線を逸脱して信頼性の低い出力を提供する可能性があります。

対照的に、AutoGPT は短期および長期のメモリ管理に優れています。メモリ管理にデータベース、ローカル キャッシュ、Redis を使用することで、大量のコンテキスト情報や以前の経験を保存でき、AI モデルがより適切な意思決定を行えるようになります。

4.3 イメージ生成

AutoGPT は、デフォルトで DALL-E を使用するさまざまなイメージ生成エンジンを使用できるため、イメージを生成できます。 AI エージェントの画像生成を有効にしたい場合は、DALL-E の API にアクセスする必要があります。マルチモーダル入力方法であるにもかかわらず、この機能は現在 ChatGPT-4 では利用できません。

3.4 テキスト読み上げ

コマンド ラインで python -m autogpt --speak と入力すると、AutoGPT でテキスト読み上げを有効にできます。ただし、AutoGPT を操作するたびにコマンドを入力する必要があります。 AutoGPT を多用途 AI 音声ソフトウェア イレブン ラボに接続することで、音声にさまざまなサウンドを追加することもできます。

5. AutoGPT の制限

自律性が AI システムに新たな次元を追加することは疑いの余地がありません。同時に、AutoGPT の制限とリスクを無視することはできません。以下に、注意しなければならない重要な制限をいくつか示します。

5.1 高コスト

AutoGPT の機能は素晴らしいですが、その実用性にはがっかりするかもしれません。 AutoGPT は高価な GPT-4 モデルを使用しているため、たとえ小さなタスクであっても、各タスクを完了するコストが高くなる可能性があります。これは主に、AutoGPT が特定のタスクのステップ中に GPT-4 を複数回使用することが原因です。

5.2 頻繁にループに陥る

AutoGPT を使用するときにユーザーが直面する最も一般的な問題は、ループに陥ることです。これが数分以上続く場合は、プロセスを再起動する必要がある可能性があります。これは、AutoGPT がタスクを正しく定義および分解するために GPT-4 に依存しているために発生します。したがって、基盤となる LLM が AutoGPT がアクションを実行するには不十分な結果を返した場合、試行錯誤の問題が発生します。

5.3 データ セキュリティ

AutoGPT は完全に承認されているため、twitter アカウントの使用、github へのログイン、検索エンジンの使用など、自律的に実行してシステムやインターネットにアクセスできます。 . なので、データが漏洩する可能性があります。 AutoGPT にはセキュリティ エージェントがないため、AutoGPT を使用する場合は注意が必要です。正しい指示とセキュリティ ガイドラインを提供せずにモデルの実行を継続させることはできません。

5. AutoGPT をインストールするにはどうすればよいですか?

他の AI ツールとは異なり、AutoGPT にはプラットフォームや機能にアクセスするための単純な登録プロセスがありません。 AutoGPT の使用を開始する前に、要件を満たすさまざまなソフトウェアをダウンロードする必要があります。ステップの詳細な要件は次のとおりです:

ステップ 1: 必要なソフトウェアをダウンロードします

まず、Git アカウントが必要で、Python3.1.0 以降をインストールする必要があります。また、一般的なシェル コマンドを巧みに使用できること、またはプロジェクトの起動と構成に Docker コンテナを使用できることも必要です。

ステップ 2: OpenAI API キーを設定する

まだ持っていない場合は、OpenAI アカウントを作成してください (もちろん、中国でアカウントを作成したい場合は、簡単なことではありません。インターネット上の他の記事を参照してアカウントを申請してください)。 OpenAI アカウントを開いたら、「USER - API キー」を開き、「API キー」タブに移動します。キーを作成するオプションが表示されます。それをクリックしてキーをコピーします。

自己認識 AI: AutoGPT

ステップ 3: 最新バージョンの AutoGPT のクローンを作成します

(1)クローン プロジェクト

コマンドを開きます行ツールは、コマンド git clone https://github.com/Torantulino/Auto-GPT.git を使用して、プロジェクトをローカルにクローンします。

自己認識 AI: AutoGPT

(2) インストールを実行します。

コマンド cd Auto-GPT && ls -al を使用してディレクトリに入ると、多数のファイルがあることがわかります。そのうちの 1 つはrequirements.txtです。このファイルには、AutoGPT を実行するために必要なモジュールが含まれています。

自己認識 AI: AutoGPT

これらのモジュールをインストールするには、コマンド pip install -rrequirements.txt を使用してダウンロードしてインストールします。

自己認識 AI: AutoGPT

(3) 設定を変更します

コマンド vim .env.template your-openai-api-key) を渡します。設定が完了したら、 mv .env.template .env を実行して設定を有効にします。

自己認識 AI: AutoGPT

その他の関連設定は、必要に応じて参照して行うことができます。

##LLM PROVIDER OPENAI_API_KEY をテーブルに設定できます、AZURE を使用するかどうかLLM モデル設定過剰なトークンを避けるために、openAI によって提供されるトークン制限を構成できます。通話コストの無駄。デフォルトは 4000-8000LLM MODELSLLM の基礎となる言語モデルを選択できます。デフォルトでは GPT-4 または gpt-3.5-turboMEMORYメモリ管理。ローカルで構成できます。 redis、PINECONE、MILVUS など。画像生成プロバイダー画像生成、画像サイズを構成できます画像生成エンジン: dalle、HUGGGINGFACE、安定した拡散 WEBUI#音声からテキストへのプロバイダーを設定できます#WEB ブラウジング検索エンジン管理。Firefox、Chrome、Safari、検索エンジン: Google など、さまざまなブラウザを設定できます。認可されたオープン API は、インターネットにアクセスして情報を取得し、アクセスの深さを管理するために使用されますTTS プロバイダー音声合成設定には MAC OS、STREAMELEMENTS、ELEVENLABS を使用しますTWITTER APITwitter アカウント管理、 Twitter アカウントを管理および構成し、対応する API にアクセスするためのトークンを構成します#AUTO-GPT - 一般設定 AutoGPT のデフォルト構成の一部 (ストレージ ディレクトリ、スイッチ、ユーザー エージェント、AI 設定など)。

(4) 使用を開始する

上記の設定を完了すると、AutoGPT の基本的な設定が完了しました。この時点で、python -m autogpt! というコマンドを実行して、AutoGPT の旅を開始できます。

自己認識 AI: AutoGPT

上の図からわかるように、AutoGPT では AI に名前 [Name] と役割の位置付け [Role] を与える必要があります。 ]. 同時に、その目標 [目標] を設定することができます (最大 5 つの目標、目標が 1 つしかない場合は Enter キーを押すだけです)。

目標を設定して完了すると、AutoGPT は独自に考えて目標を分析します [思考]。思考が完了すると、目標を達成する方法を理解して推論し始めます [理由]次に、それを個別に特定の計画 [PLAN] に分割し始め、最後に、AI エージェントがエラーを修正し、正しい決定を下すことを保証するための判断 [CRITCISM] が提案されます。

上記の動作計画を完了すると、AutoGPT は実行する指示とアクション [NEXT ACTION] を要求します。これには、実行される特定のコマンド [COMMAND] とパラメーター [ARGUMENTS] が含まれます。ユーザーは次の場所でアクションを変更できます。データ漏洩などの予期せぬリスクを回避するために、リスク コマンドが識別されます。ここで、y または n を使用して、AutoGPT の後続のコマンド アクションを承認または拒否できます。

自己認識 AI: AutoGPT

AutoGPT は上記の手順を複数回繰り返します。AutoGPT はコンテキストと履歴エクスペリエンスを保存できるため、フィードバックに基づいて毎回更新されます。深く考え、より良い計画を立て、最後に実行したい計画をリストアップし、期待する目標を達成するまで試行と補足を繰り返します。

AutoGPT は上記の手順を実行し、複数のサイクルを実行します。AutoGPT はコンテキストと過去の経験を保存できるため、フィードバック結果に基づいて毎回より深く検討し、より良い計画を策定し、最終的に要件をリストします。 . 目的の目標に到達するまで、計画を実行し、再試行し、追加してください。

(5) Docker の使用法

もちろん、docker を使用して実行することもできます。

<code>// 最简单的方式就是通过docker-composedocker-compose build auto-gptdocker-compose run --rm auto-gpt// 使用docker命令构建docker build -t auto-gpt .docker run -it --env-file=.env -v $PWD:/app auto-gpt</code>

追加のパラメーター (実行モード --gpt3only や --gpt3only など) を渡すこともできます。 -- 連続モード:

<code>// docker-composedocker-compose run --rm auto-gpt --gpt3only --continuous// docker docker run -it --env-file=.env -v $PWD:/app --rm auto-gpt --gpt3only --continuous</code>

6. 概要

従来のテキスト生成テクノロジと比較すると、AutoGPT の機能の進化は驚くべきものであることがわかりました。AutoGPT は自動的にタスクを実行するために分解できます。 AutoGPT は、実行プロセス中の既存の経験と決定に基づいて継続的に最適化、改善、要約します。同時に、AutoGPT には情報を取得するための多くの方法があり、検索エンジン検索、github、Web ツール、その他のチャネルを通じてダウンロードできます。必要な情報を抽出し、ローカル キャッシュ、音声変換、画像生成などのプラグイン機能を使用して、最終的に設定した目標を達成します。この自己認識、自己反復、更新の形式は、映画「流浪の地球」のモスのような人工知能に非常に近いです。

最後の質問は、この記事は AutoGPT によって自動的に生成されたものですか?

音声からテキストへ、 HUGGGINGFACE
##リポジトリ アクション用の GIT プロバイダー

github 構成。github API キーを構成することで Github にアクセスして管理するために使用されます

以上が自己認識 AI: AutoGPTの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。