ホームページ >テクノロジー周辺機器 >AI >Open Interpreter: 大規模な言語モデルがローカルでコードを実行できるようにするオープン ソース ツール
私は最近、Github を閲覧しているときに Open Interpreter と呼ばれるアーティファクトを発見しました。これは主にローカルで大規模な言語モデルと対話するために使用されます。これは、大規模な言語モデルを通じて自然言語をスクリプト コードに変換し、それをローカルで実行します。これにより、ゴール。
つまり、デスクトップにjoker.txtという名前のファイルを作成したい場合は、手動で作成する必要はなく、自然言語を通じてOpen Interpreterに指示し、それを利用してファイルを生成することができます。次に、スクリプトがローカルで実行されて、joker.txt ファイルが生成されます。
必要なことをスクリプトに伝え、コードをローカルで実行できるようにするだけです。
元の意味を変えずに内容を中国語に書き直してください。元の文を表示する必要はありません
#画像
#上記のケース 全体のプロセスは 3 つのステップに分かれています:计划: 1 检查桌面上的 open-test 文件夹是否存在,如果不存在则创建它。 2 在 open-test 文件夹中创建一个名为 joke.txt 的文件。我将使用以下代码来完成这个任务。mkdir -p ~/Desktop/open-test && touch ~/Desktop/open-test/joke.txt
# 获取脚本wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh# 增加可执行权限chmod +x Anaconda3-2023.07-2-Linux-x86_64.sh# 运行安装脚本./Anaconda3-2023.07-2-Linux-x86_64.sh# 查询版本conda -Vバージョン番号が正常に出力できればインストールは成功です、prompt コマンドが存在しない場合は、
vim .bash_profile# 加入下面一行PATH=$PATH:$HOME/bin:$NODE_PATH/bin:/root/anaconda3/bin# 再次执行conda -V
Picture
分離環境の作成conda をインストールした後、分離環境を作成します。指定された Python バージョンについては、次のコマンドconda create -n python311 pythnotallow=3.11を使用して、このコード行の意味は、conda create を通じて python311 という名前の分離環境を作成することです。分離環境の Python バージョンは 3.11 として指定されます。作成が完了したら、次のコマンドを使用して分離環境のリストをクエリできます。
conda env list
図
オープン インタープリターのインストール次に、分離環境に入り、分離環境にオープン インタープリターをインストールします。次のコマンドを実行します。 followconda activate python311pip install open-interpreterしばらく待つとインストールが成功します。インストールが成功したら、次のコマンドを入力してローカルの大規模言語モデルの対話を開始します。
interpreter
Picture
元の意味を変更する必要はありませんが、書き換える必要がある内容は次のとおりです。 「インタープリタ」を直接入力した場合コマンドを実行すると、独自の OpenAI API キーを入力するように求められます。現時点では、GPT-4 モデルがデフォルトで使用されますが、「--fast」パラメータを追加することで GPT-3.5 モデルを使用できます。interpreter --fastここでは、OpenAI API キーを手動で入力する必要があります。比較トラブルを実行するたびに、環境変数
export OPENAI_API_KEY=skxxxxを設定できるため、以降の実行で OpenAI API キーを手動で入力する必要がなくなります。Microsoft の Azure OpenAI を使用する場合は、次の環境変数を構成し、起動時に --use-azure パラメータを追加するだけです
export AZURE_API_KEY=export AZURE_API_BASE=export AZURE_API_VERSION=export AZURE_DEPLOYMENT_NAME=
interpreter --use-azure
Picture
ローカル起動すべての操作には、対応する OpenAI API キーまたは Azure の OpenAI エンドポイントが必要です。実際、Open Interpreter はローカル実行もサポートしており、起動時に --local パラメーターを追加して、対応するモデルを選択するだけです。ただし、ローカル操作には当社のコンピュータ構成サポートが必要です。これに興味のある友人は、練習のために公式ドキュメントを参照できますが、私の構成ではこれが許可されていません画像
今日はOpeninterpreterのインストール方法と簡単なゲームプレイを紹介しました。このプロジェクトは現在急速に反復されており、近い将来革命を起こすと信じています。人工知能の時代が真に到来したと言わざるを得ず、今後数年間は人工知能製品が精力的に開発される時期となるでしょう。プログラマーとして、私たちは時代のペースに乗り遅れないようにする必要があります
以上がOpen Interpreter: 大規模な言語モデルがローカルでコードを実行できるようにするオープン ソース ツールの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。