Rumah > Artikel > hujung hadapan web > Menjalankan Llama pada Android: Panduan Langkah demi Langkah Menggunakan Ollama
Llama 3.2 baru-baru ini diperkenalkan di Persidangan Pembangun Meta, mempamerkan keupayaan multimodal yang mengagumkan dan versi yang dioptimumkan untuk peranti mudah alih menggunakan perkakasan Qualcomm dan MediaTek. Kejayaan ini membolehkan pembangun menjalankan model AI yang berkuasa seperti Llama 3.2 pada peranti mudah alih, membuka jalan untuk aplikasi AI yang lebih cekap, peribadi dan responsif.
Meta mengeluarkan empat varian Llama 3.2:
Model yang lebih besar, terutamanya varian 11B dan 90B, cemerlang dalam tugas seperti pemahaman imej dan penaakulan carta, selalunya mengatasi model lain seperti Claude 3 Haiku dan malah bersaing dengan GPT-4o-mini dalam kes tertentu. Sebaliknya, model 1B dan 3B yang ringan direka untuk penjanaan teks dan keupayaan berbilang bahasa, menjadikannya sesuai untuk aplikasi pada peranti yang privasi dan kecekapan adalah kunci.
Dalam panduan ini, kami akan menunjukkan kepada anda cara menjalankan Llama 3.2 pada peranti Android menggunakan Termux dan Ollama. Termux menyediakan persekitaran Linux pada Android dan Ollama membantu dalam mengurus dan menjalankan model besar secara tempatan.
Model AI yang dijalankan secara tempatan menawarkan dua faedah utama:
Walaupun tidak banyak produk yang membenarkan peranti mudah alih menjalankan model seperti Llama 3.2 dengan lancar, kami masih boleh menerokainya menggunakan persekitaran Linux pada Android.
Termux ialah emulator terminal yang membenarkan peranti Android menjalankan persekitaran Linux tanpa memerlukan akses root. Ia tersedia secara percuma dan boleh dimuat turun dari halaman Termux GitHub.
Untuk panduan ini, muat turun termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk dan pasang pada peranti Android anda.
Selepas melancarkan Termux, ikut langkah ini untuk menyediakan persekitaran:
termux-setup-storage
Arahan ini membolehkan Termux mengakses storan peranti Android anda, membolehkan pengurusan fail lebih mudah.
pkg upgrade
Masukkan Y apabila digesa untuk mengemas kini Termux dan semua pakej yang dipasang.
pkg install git cmake golang
Pakej ini termasuk Git untuk kawalan versi, CMake untuk membina perisian dan Go, bahasa pengaturcaraan di mana Ollama ditulis.
Ollama ialah platform untuk menjalankan model besar secara tempatan. Begini cara memasang dan menyediakannya:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
Kini pelayan Ollama akan berjalan di latar belakang, membolehkan anda berinteraksi dengan model.
Untuk menjalankan model Llama 3.2 pada peranti Android anda, ikut langkah ini:
Pilih Model:
Muat turun dan Jalankan Model Llama 3.2:
./ollama run llama3.2:3b --verbose
Bendera --verbose adalah pilihan dan menyediakan log terperinci. Selepas muat turun selesai, anda boleh mula berinteraksi dengan model.
Semasa menguji Llama 3.2 pada peranti seperti Samsung S21 Ultra, prestasi lancar untuk model 1B dan boleh diurus untuk model 3B, walaupun anda mungkin melihat ketinggalan pada perkakasan lama. Jika prestasi terlalu perlahan, beralih kepada model 1B yang lebih kecil boleh meningkatkan responsif dengan ketara.
Selepas menggunakan Ollama, anda mungkin mahu membersihkan sistem:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
Now, you can run ollama directly from the terminal.
Llama 3.2 represents a major leap forward in AI technology, bringing powerful, multimodal models to mobile devices. By running these models locally using Termux and Ollama, developers can explore the potential of privacy-first, on-device AI applications that don’t rely on cloud infrastructure. With models like Llama 3.2, the future of mobile AI looks bright, allowing faster, more secure AI solutions across various industries.
Atas ialah kandungan terperinci Menjalankan Llama pada Android: Panduan Langkah demi Langkah Menggunakan Ollama. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!