我们都热爱人工智能,近年来人工智能的蓬勃发展改变了世界,并将其带入了一个新时代。对于任何使用问题,都有一个人工智能的用例,比如向 Gemini 询问烹饪食谱,Chatgpt 询问作业,Claude 询问编程, V0 对于前端设计,开发人员和学生现在非常依赖人工智能,这导致几乎每天都有一家初创公司出现人工智能。
这导致像我这样有抱负的开发者问如何才能制作这样的东西?答案只在上图中。对这些模型的 API 调用。但是,它们并不便宜,像我这样的失业学生没有办法购买订阅。这就产生了在本地运行 AI,然后在端口上提供服务以进行 API 调用的想法。本文将逐步指导您如何设置 Ollama 并通过 Nodejs 代码访问 LLM。
此步骤适用于 Windows 用户。如果您使用其他操作系统,请按照本指南操作。
npm init -y npm i typescript ollama npx tsc --init
"rootDir": "./src", "outDir": "./dist",
import ollama from 'ollama'; async function main() { const response = await ollama.chat({ model: 'codellama:7b', messages: [ { role: 'user', content: 'What color is the sky?' } ], }) console.log(response.message.content) } main()
"scripts": { "dev": "tsc -b && node dist/index.js" },
感谢您的阅读,希望这篇文章能够在任何情况下为您提供帮助,如果有帮助,请随时在我的社交媒体上联系!
Linkedin | GitHub
以上是在您的 Node.js 项目中运行本地 LLM (Ollama)。的详细内容。更多信息请关注PHP中文网其他相关文章!