Kita semua menyukai AI, dan sejak beberapa tahun kebelakangan ini ledakan dalam Kecerdasan Buatan telah mengubah dunia dan membawanya ke era baharu. Untuk sebarang masalah penggunaan, terdapat kes penggunaan AI, iaitu bertanya Gemini tentang resipi masakan, Chatgpt untuk tugasan, Claude untuk pengaturcaraan, V0 untuk reka bentuk bahagian hadapan, pembangun dan pelajar sangat bergantung pada AI pada hari ini yang membawa kepada hampir setiap hari baharu permulaan muncul yang menampilkan AI.
Ini membawa kepada calon pembangun seperti saya soalan tentang bagaimana saya boleh membuat sesuatu seperti ini? Jawapannya ada dalam gambar di atas sahaja. Panggilan API kepada model ini. Tetapi, mereka tidak murah dan pelajar yang menganggur seperti saya tidak mempunyai cara untuk membeli langganan. Ini membawa kepada idea untuk menjalankan AI secara tempatan dan kemudian menyampaikannya pada port untuk panggilan api. Artikel ini akan memberi anda panduan langkah demi langkah tentang cara anda boleh menyediakan Ollama dan mengakses LLM melalui kod nodej anda.
Memasang Ollama
Langkah ini adalah untuk pengguna windows. Jika anda menggunakan sistem pengendalian lain, ikuti panduan ini.
- Pergi ke Ollama, dan muat turun pemasang mereka.
- Setelah selesai, hidupkan persediaan dan Pasang aplikasi.
- Ini kemudiannya akan memasang klien pada mesin anda, dan kini anda boleh pergi ke bahagian perpustakaan tapak web rasmi ollama untuk memilih model yang anda mahu gunakan.
- Di sini, saya akan menggunakan codellama:7b untuk mesin saya.
- Buka CMD atau Powershell anda dan jalankan perintah ollama run
, ini akan memuat turun model pada mesin anda jika ia sudah tidak wujud dan kemudian akan menjalankannya.
Menyajikan LLM di Pelabuhan
- Kini anda mempunyai Ollama pada sistem anda dan juga mempunyai LLM yang diperlukan, jadi langkah seterusnya ialah menyampaikannya pada port mesin anda untuk apl nod anda mengaksesnya.
- Sebelum meneruskan, tutup Ollama dari latar belakang dan semak sama ada port lalai yang diberikan kepada ollama kosong atau tidak dengan menggunakan arahan ini Servis ollama, jika ini menimbulkan ralat maka ini bermakna pelabuhan telah diduduki.
- Anda perlu mengosongkan port itu sebelum meneruskan, port lalai untuk Ollama ialah 11434
- Gunakan arahan berikut untuk menyemak proses yang sedang berjalan pada port tersebut netstat -ano | findstr :11434
- Catat PID daripada hasil di atas dan gunakan arahan ini untuk mengosongkan port.
taskkill /PID
/F - Setelah selesai buka terminal cmd baharu dan jalankan arahan berikut ollama berkhidmat
- Kini anda akan melihat sesuatu seperti ini yang bermaksud LLM anda kini boleh diakses melalui panggilan API.
Menggunakan pakej npm ollama untuk pengendalian respons req
- Mulakan projek nod anda dengan mengikut arahan
npm init -y npm i typescript ollama npx tsc --init
- ini akan membuat repo untuk anda mula bekerja, mula-mula pergi ke fail tsconfig.json, nyahkomen dan tetapkan nilai ini
"rootDir": "./src", "outDir": "./dist",
- Buat folder src dan di dalam folder buat fail index.js.
import ollama from 'ollama'; async function main() { const response = await ollama.chat({ model: 'codellama:7b', messages: [ { role: 'user', content: 'What color is the sky?' } ], }) console.log(response.message.content) } main()
- Sekarang sebelum menjalankan kod, edit skrip dalam package.json
"scripts": { "dev": "tsc -b && node dist/index.js" },
- Ini akan membina kod ts menjadi kod js untuk dijalankan.
- Jalankan aplikasi dengan menggunakan arahan npm jalankan dev di dalam terminal.
- Ada anda. Akhirnya dapat mengakses LLM tempatan anda dengan nodejs.
- Anda boleh membaca lebih lanjut tentang pakej nod ollama di sini.
Terima kasih kerana membaca, Harap artikel ini dapat membantu anda dalam apa jua keadaan dan jika ia boleh, sila hubungi sosial saya!
Linkedin | Github
Atas ialah kandungan terperinci Menjalankan LLM tempatan (Ollama) dalam projek nodejs anda.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Trend terkini dalam JavaScript termasuk kebangkitan TypeScript, populariti kerangka dan perpustakaan moden, dan penerapan webassembly. Prospek masa depan meliputi sistem jenis yang lebih berkuasa, pembangunan JavaScript, pengembangan kecerdasan buatan dan pembelajaran mesin, dan potensi pengkomputeran IoT dan kelebihan.

JavaScript adalah asas kepada pembangunan web moden, dan fungsi utamanya termasuk pengaturcaraan yang didorong oleh peristiwa, penjanaan kandungan dinamik dan pengaturcaraan tak segerak. 1) Pengaturcaraan yang didorong oleh peristiwa membolehkan laman web berubah secara dinamik mengikut operasi pengguna. 2) Penjanaan kandungan dinamik membolehkan kandungan halaman diselaraskan mengikut syarat. 3) Pengaturcaraan Asynchronous memastikan bahawa antara muka pengguna tidak disekat. JavaScript digunakan secara meluas dalam interaksi web, aplikasi satu halaman dan pembangunan sisi pelayan, sangat meningkatkan fleksibiliti pengalaman pengguna dan pembangunan silang platform.

Python lebih sesuai untuk sains data dan pembelajaran mesin, manakala JavaScript lebih sesuai untuk pembangunan front-end dan penuh. 1. Python terkenal dengan sintaks ringkas dan ekosistem perpustakaan yang kaya, dan sesuai untuk analisis data dan pembangunan web. 2. JavaScript adalah teras pembangunan front-end. Node.js menyokong pengaturcaraan sisi pelayan dan sesuai untuk pembangunan stack penuh.

JavaScript tidak memerlukan pemasangan kerana ia sudah dibina dalam pelayar moden. Anda hanya memerlukan editor teks dan penyemak imbas untuk memulakan. 1) Dalam persekitaran penyemak imbas, jalankan dengan memasukkan fail HTML melalui tag. 2) Dalam persekitaran Node.js, selepas memuat turun dan memasang node.js, jalankan fail JavaScript melalui baris arahan.

Cara Menghantar Pemberitahuan Tugas di Quartz terlebih dahulu Apabila menggunakan pemasa kuarza untuk menjadualkan tugas, masa pelaksanaan tugas ditetapkan oleh ekspresi cron. Sekarang ...

Cara mendapatkan parameter fungsi pada rantaian prototaip dalam JavaScript dalam pengaturcaraan JavaScript, pemahaman dan memanipulasi parameter fungsi pada rantaian prototaip adalah tugas yang biasa dan penting ...

Analisis sebab mengapa kegagalan anjakan gaya dinamik menggunakan vue.js dalam pandangan web applet weChat menggunakan vue.js ...

Bagaimana untuk membuat permintaan serentak untuk pelbagai pautan dan hakim mengikut urutan untuk mengembalikan hasil? Dalam skrip Tampermonkey, kita sering perlu menggunakan pelbagai rantai ...


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

SecLists
SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

Dreamweaver CS6
Alat pembangunan web visual

Muat turun versi mac editor Atom
Editor sumber terbuka yang paling popular

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan