최근 OpenAI Translator와 NextChat은 Ollama에서 로컬로 실행되는 대규모 언어 모델을 지원하기 시작했으며, 이는 "초보자" 매니아를 위한 새로운 플레이 방식을 추가합니다.
그리고 Windows(미리보기 버전)에서 Ollama의 출시는 Windows 장치의 AI 개발 방식을 완전히 뒤바꾸었습니다. 이는 AI 분야의 탐험가와 일반 "수질 테스트 플레이어"에게 명확한 길을 안내했습니다.
Ollama는 AI 모델의 개발 및 사용을 크게 단순화하는 획기적인 인공 지능(AI) 및 기계 학습(ML) 도구 플랫폼입니다.
기술 커뮤니티에서 AI 모델의 하드웨어 구성과 환경 구축은 항상 까다로운 문제였으며 Ollama는 이러한 중요한 요구 사항을 해결하기 위해 등장했습니다.
많은 AI 도구 중에서 Ollama는 다음과 같은 주요 장점을 가지고 있습니다. 이러한 기능은 고유성을 강조할 뿐만 아니라 AI 개발자와 애호가가 직면하는 가장 일반적인 문제를 해결합니다.
Ollama는 이렇게 세심하게 설계된 기능을 통해 AI 개발의 일반적인 문제를 해결할 뿐만 아니라 더 많은 사람들이 고급 AI 기술에 쉽게 접근하고 적용할 수 있도록 하여 AI의 응용 가능성을 크게 확대합니다.
AI와 ML의 새로운 시대에 오신 것을 환영합니다! 다음으로, 시작하는 모든 단계를 안내하고 원활한 여행을 위해 몇 가지 실용적인 코드와 명령 예제도 제공하겠습니다.
1Ollama Windows 미리보기 페이지를 방문하여 OllamaSetup.exe
설치 프로그램을 다운로드하세요.
2 파일을 더블클릭하고 "설치"를 클릭하면 설치가 시작됩니다.
3설치가 완료되면 Windows에서 Ollama를 사용할 수 있습니다. 아주 간단하지 않나요?
Ollama를 시작하고 모델 라이브러리에서 오픈 소스 AI 모델을 얻으려면 다음 단계를 따르세요.
1 "시작" 메뉴에서 Ollama 아이콘을 클릭하세요. 실행 후 작업 표시줄 트레이에 아이콘이 남습니다.
2 작업 표시줄 아이콘을 마우스 오른쪽 버튼으로 클릭하고 "로그 보기"를 선택하여 명령줄 창을 엽니다.
3다음 명령을 실행하여 Ollama를 실행하고 모델을 로드합니다.
으아악위 명령을 실행한 후 Ollama는 초기화를 시작하고 Ollama 모델 라이브러리에서 선택한 모델을 자동으로 가져와 로드합니다. 준비가 되면 지침을 보낼 수 있으며 선택한 모델을 사용하여 이해하고 응답합니다.
modelname
이름을 실행하려는 모델의 이름으로 바꾸십시오. 일반적으로 사용되는 이름은
모델 | 매개변수 | 크기 | 설치 명령 | 출판 조직 |
---|---|---|---|---|
라마 2 | 7B | 3.8GB | ollama run llama2 |
메타 |
코드 라마 | 7B | 3.8GB | ollama run codellama |
메타 |
라마 2 13B | 13B | 7.3GB | ollama run llama2:13b |
메타 |
라마 2 70B | 70B | 39GB | ollama run llama2:70b |
메타 |
미스트랄 | 7B | 4.1GB | ollama run mistral |
미스트랄 AI |
믹스트랄 | 8x7b | 26GB | ollama run mixtral:8x7b |
미스트랄 AI |
파이-2 | 2.7B | 1.7GB | ollama run phi |
마이크로소프트 리서치 |
LLaVA | 7B | 4.5GB | ollama run llava |
Microsoft Research 컬럼비아 대학교 위스콘신 |
젬마 2B | 2B | 1.4GB | ollama run gemma:2b |
구글 |
젬마 7B | 7B | 4.8GB | ollama run gemma:7b |
구글 |
큐웬 4B | 4B | 2.3GB | ollama run qwen:4b |
알리바바 |
큐웬 7B | 7B | 4.5GB | ollama run qwen:7b |
알리바바 |
큐웬 14B | 14B | 8.2GB | ollama run qwen:14b |
알리바바 |
运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存。
如前所述,Ollama 支持通过各种各样的开源模型来完成不同的任务,下面就来看看怎么使用。
ollama run llava1.6
Ollama 会使用你选择的模型来分析这张图片,并给你一些结果,比如图片的内容和分类,图片是否有修改,或者其他的分析等等(取决于所使用的模型)。
我们不可能只通过命令行来使用,将应用程序连接到 Ollama API 是一个非常重要的步骤。这样就可以把 AI 的功能整合到自己的软件里,或者在 OpenAI Translator 和 NextChat 这类的前端工具中进行调用。
以下是如何连接和使用 Ollama API 的步骤:
http://localhost:11434
,可以在安装 Ollama 的系统中直接调用。1右击点击任务栏图标,选择「Quit Ollama」退出后台运行。
2使用Windows + R
快捷键打开「运行」对话框,输出以下命令,然后按Ctrl + Shift + Enter
以管理员权限启动「环境变量」。
C:Windowssystem32rundll32.exe sysdm.cpl, EditEnvironmentVariables
3要更改侦听地址和端口,可以添加以下环境变量:
OLLAMA_HOST
:8000
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000
端口。
要使用 IPv6,需要 Ollama 0.0.20 或更新版本。
4如果安装了多个模型,可以通过OLLAMA_MODELS
变量名来指定默认模型。
5更改完之后,重新运行 Ollama。然后在浏览器中测试访问,验证更改是否成功。
6示例 API 调用: 要使用 Ollama API,可以在自己的程序里发送 HTTP 请求。下面是在「终端」里使用curl
命令给 Gemma 模型发送文字提示的例子:
curl http://192.168.100.10:8000/api/generate -d '{ "model": "gemma:7b", "prompt": "天空为什么是蓝色的?" }'
返回响应的格式,目前只支持 Json 格式。
# 查看 Ollama 版本 ollama -v # 查看已安装的模型 ollama list # 删除指定模型 ollama rm [modelname] # 模型存储路径 # C:Users\.ollamamodels
按照上述步骤,并参考命令示例,你可以在 Windows 上尽情体验 Ollama 的强大功能。不管是在命令行中直接下达指令,通过 API 将 AI 模型集成到你的软件当中,还是通过前端套壳,Ollama 的大门都已经为你敞开。
要让 Ollama 在 Windows 上充分发挥最大潜力,需要注意以下几点最佳实践和技巧,这将帮助你优化性能并解决一些常见问题:
이 튜토리얼에서는 Ollama 설치, 기본 명령 실행, Ollama 모델 라이브러리 사용, API를 통한 Ollama 연결 등 Windows에서 Ollama를 설치하고 사용하는 방법을 배웠습니다. 올라마(Ollama)에 대해 자세히 알아보고 다양한 모델을 시험해 보시기를 권합니다.
Ollama는 무한한 잠재력을 가지고 있으며 이를 통해 더 많은 가능성을 달성할 수 있습니다!
위 내용은 Windows on Ollama: LLM(대형 언어 모델)을 로컬에서 실행하기 위한 새로운 도구의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!