ホームページ >ウェブフロントエンド >jsチュートリアル >Nodejs プロジェクトでローカル LLM (Ollama) を実行します。
私たちは皆 AI を愛しており、近年の人工知能のブームは世界を変え、新しい時代を迎えています。どのような使用上の問題にも AI の使用例があり、Gemini に料理のレシピを尋ねたり、Chatgpt に課題を尋ねたり、Claude にプログラミングを尋ねたり、フロントエンド設計の V0 では、最近、開発者や学生が AI に大きく依存しているため、ほぼ毎日、これを特徴とするスタートアップが登場しています。 AI.
これは、私のような野心的な開発者にとって、どうすればこのようなものを作成できるのかという疑問につながります。答えは上の写真だけです。これらのモデルへの API 呼び出し。しかし、料金は決して安くはなく、私のような失業中の学生には定期購読を購入する手段がありません。これにより、AI をローカルで実行し、API 呼び出しのためにポートで提供するというアイデアが生まれました。この記事では、Ollama をセットアップし、nodejs コードを介して LLM にアクセスする方法について段階的に説明します。
この手順は Windows ユーザー向けです。他のオペレーティング システムを使用している場合は、このガイドに従ってください。
npm init -y npm i typescript ollama npx tsc --init
"rootDir": "./src", "outDir": "./dist",
import ollama from 'ollama'; async function main() { const response = await ollama.chat({ model: 'codellama:7b', messages: [ { role: 'user', content: 'What color is the sky?' } ], }) console.log(response.message.content) } main()
"scripts": { "dev": "tsc -b && node dist/index.js" },
読んでいただきありがとうございます。この記事が何らかの形で役に立てば幸いです。もし役に立った場合は、私のソーシャル メディアでお気軽にご連絡ください!
リンクトイン |ギットハブ
以上がNodejs プロジェクトでローカル LLM (Ollama) を実行します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。