cari
RumahPeranti teknologiAIUntuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby

Penterjemah |. Memandangkan Party A memegang maklumat pelanggan yang sangat sensitif, atas sebab keselamatan kami tidak boleh menyampaikannya kepada

OpenAI atau model proprietari lain. Oleh itu, kami memuat turun dan menjalankan model AI sumber terbuka dalam mesin maya AWS, memastikannya berada di bawah kawalan kami sepenuhnya. Pada masa yang sama, aplikasi

Rails boleh membuat

API panggilan ke AI dalam persekitaran yang selamat. Sudah tentu, jika isu keselamatan tidak perlu dipertimbangkan, kami lebih suka untuk bekerjasama secara langsung dengan OpenAI. Di bawah, saya akan berkongsi dengan anda cara memuat turun model AI sumber terbuka secara tempatan, biarkan ia berjalan, dan cara menjalankan skrip Ruby terhadapnya.

Mengapa menyesuaikan?

Untuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby

Motivasi untuk projek ini adalah mudah: keselamatan data. Apabila mengendalikan maklumat pelanggan yang sensitif, pendekatan yang paling boleh dipercayai biasanya melakukannya dalam syarikat. Oleh itu, kami memerlukan model AI tersuai untuk memainkan peranan dalam menyediakan tahap kawalan keselamatan dan perlindungan privasi yang lebih tinggi. Model sumber terbuka

Pada masa lalu

6 bulan telah ada produk baru di pasaran seperti:

dan Lamadsb. Sebilangan besar model AI sumber terbuka. Walaupun mereka tidak sekuat GPT-4, prestasi kebanyakan mereka telah melebihi GPT-3.5, dan mereka akan menjadi lebih dan lebih berkuasa seiring dengan berlalunya masa. Sudah tentu, model yang anda pilih bergantung sepenuhnya pada keupayaan pemprosesan anda dan perkara yang perlu anda capai. Memandangkan kami akan menjalankan model AI secara tempatan, kami memilih Mistral iaitu lebih kurang 4GB. Ia mengatasi prestasi GPT-3.5

pada kebanyakan metrik. Walaupun Mixtral berprestasi lebih baik daripada Mistral, ia adalah model besar yang memerlukan sekurang-kurangnya 48GB memori untuk dijalankan. ParameterApabila bercakap tentang model bahasa besar (LLM), kita cenderung untuk memikirkan tentang menyebut saiz parameternya. Di sini, model

Mistral yang akan kami jalankan secara tempatan ialah model parameter 7 bilion (sudah tentu,

Mixtral mempunyai 700 bilion parameter, dan GP-T, dan lebih kurang GP-T 1750 bilion parameter). Lazimnya, model bahasa besar menggunakan teknik berasaskan rangkaian saraf. Rangkaian saraf terdiri daripada neuron, dan setiap neuron disambungkan kepada semua neuron lain dalam lapisan seterusnya.

Seperti yang ditunjukkan dalam gambar di atas, setiap sambungan mempunyai berat, biasanya dinyatakan sebagai peratusan. Setiap neuron juga mempunyai bias, yang membetulkan data semasa ia melalui nod.

Tujuan rangkaian saraf adalah untuk "mempelajari" algoritma lanjutan, algoritma padanan corak. Dengan dilatih mengenai jumlah teks yang banyak, ia akan mempelajari secara beransur-ansur keupayaan untuk meramal corak teks dan bertindak balas dengan bermakna kepada isyarat yang kami berikan. Ringkasnya, parameter ialah bilangan berat dan berat sebelah dalam model. Ia memberi kita gambaran tentang berapa banyak neuron yang terdapat dalam rangkaian saraf. Contohnya, untuk model parameter

7 bilion, terdapat kira-kira

Untuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby100

lapisan, setiap satu dengan beribu-ribu neuron.

Jalankan model secara setempat

Untuk menjalankan model sumber terbuka secara setempat, anda mesti memuat turun aplikasi yang berkaitan terlebih dahulu. Walaupun terdapat banyak pilihan di pasaran, yang saya dapati paling mudah dan paling mudah untuk dijalankan pada Intel Mac ialah Ollama.

Walaupun

Ollama pada masa ini hanya berjalan pada Mac dan Linux pada masa hadapan, ia akan dijalankan pada masa hadapan Sudah tentu, anda boleh menggunakan WSL

(Windows Subsystem for Linux) pada Windows untuk menjalankan Linux shell.

Ollama bukan sahaja membenarkan anda memuat turun dan menjalankan pelbagai model sumber terbuka, tetapi juga membuka model pada port tempatan, membolehkan anda membuat API panggilan melalui Rubykod. Ini memudahkan Ruby pembangun menulis Ruby aplikasi yang boleh disepadukan dengan model tempatan. . sistem. Anda hanya perlu memuat turun Ollama melalui pautan

https://www.php.cn/link/04c7f37f2420f0532d7f0e062ff2d5b5

, luangkan masa 5, dan kemudian jalankan perisian itu. . Ini bermakna ia berjalan di latar belakang dan boleh menjalankan model anda. Untuk memuat turun model, anda boleh membuka terminal dan menjalankan arahan berikut:

ollama run mistral
Memandangkan Mistral adalah kira-kira 4GB, saiznya akan mengambil sedikit masa. untuk melengkapkan muat turun. Setelah muat turun selesai, ia akan membuka gesaan Ollama secara automatik untuk anda berinteraksi dan berkomunikasi dengan Mistral.

Untuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby

Lain kali anda menjalankan

mistral melalui Ollama, anda boleh menjalankan model yang sepadan secara terus. . Di sini kita hanya boleh membuat model tersuai. Untuk kes yang lebih terperinci, sila rujuk dokumentasi dalam talian Ollama.

Pertama, anda boleh mencipta Modelfile (fail model) dan menambah teks berikut di dalamnya:

FROM mistral# Set the temperature set the randomness or creativity of the responsePARAMETER temperature 0.3# Set the system messageSYSTEM ”””You are an excerpt Ruby developer. You will be asked questions about the Ruby Programminglanguage. You will provide an explanation along with code examples.”””

Mesej sistem AI yang muncul di atas adalah asas untuk respons khusus bagi model. Seterusnya, anda boleh menjalankan arahan berikut pada terminal untuk mencipta model baharu:

ollama create <model-name> -f './Modelfile</model-name>
Dalam kes projek kami, saya menamakan model itu

Untuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby

ollama create ruby -f './Modelfile'

Pada masa yang sama, anda boleh menggunakan arahan berikut untuk menyenaraikan dan memaparkan model sedia ada anda:

ollama list

anda boleh jalankan arahan berikut model tersuai:

Ollama run ruby

Integrated dengan Ruby

sementara Ollama tidak mempunyai gem yang berdedikasi lagi, ruby pemaju boleh menggunakan kaedah http http http http http http http untuk berinteraksi dengan model. Ollama berjalan di latar belakang boleh membuka model melalui port 11434

, jadi anda boleh mengaksesnya melalui "

https://www.php.cn/link/dcd3f83c96576c0fd437286a1ff6f1f0". Selain itu, dokumentasi untuk OllamaAPI juga menyediakan titik akhir yang berbeza untuk arahan asas seperti perbualan sembang dan mencipta benaman. Dalam kes projek ini, kami mahu menggunakan titik akhir

/api/chatUntuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby

untuk menghantar gesaan kepada model AI. Imej di bawah menunjukkan beberapa kod

Ruby asas untuk berinteraksi dengan model:

  1. Kefungsian di atas Rubykod termasuk: snippet: snippet net /http", "uri" dan "json" tiga perpustakaan masing-masing melaksanakan HTTP permintaan, menghuraikan
  2. json
  3. " masing-masing melaksanakan permintaan HTTP, menghuraikan URI
  4. URI
  5. data masing-masing. . ) objek URI. Gunakan kaedah Net::HTTP::Post.new dengan URI
  6. sebagai parameter untuk membuat permintaan
  7. HTTP POST baharu
    Isi permintaan ditetapkan kepada rentetan
  1. JSON yang mewakili nilai cincang. Cincang mengandungi tiga kunci: "model", "mesej" dan "strim". Antaranya, kunci model
  2. ditetapkan kepada "
  3. ruby", yang merupakan model kami; mewakili mesej pengguna. Nilai cincang;
  4. Sistem ini membimbing model tentang cara bertindak balas terhadap maklumat. Kami telah menetapkannya dalam Modelfile.
  5. Maklumat pengguna ialah gesaan standard kami.
  6. Model akan bertindak balas dengan maklumat tambahan.
  7. Pencincangan mesej mengikut corak yang bersilang dengan model AI. Ia datang dengan watak dan kandungan. Peranan di sini boleh menjadi Sistem, Pengguna dan Pembantu. Antaranya, permintaan
    HTTP
  1. dihantar menggunakan kaedah Net::HTTP.start
  2. . Kaedah ini membuka sambungan rangkaian ke nama hos dan port yang ditentukan dan kemudian menghantar permintaan. Tamat masa bacaan sambungan ditetapkan kepada
  3. 120 saat, lagipun saya sedang menjalankan 2019 IntelMac, jadi respons mungkin agak perlahan. Ini tidak akan menjadi masalah apabila berjalan pada pelayan AWS yang sepadan. Respons pelayan disimpan dalam pembolehubah "respons".
  4. Ringkasan Kes
Seperti yang dinyatakan di atas, nilai sebenar menjalankan model AI tempatan adalah untuk membantu syarikat yang menyimpan data sensitif, memproses data tidak berstruktur seperti e-mel atau struktur berharga, . Dalam kes projek yang kami sertai, kami menjalankan latihan model tentang semua maklumat pelanggan dalam sistem pengurusan perhubungan pelanggan (

CRM). Daripada ini, pengguna boleh bertanya apa-apa soalan yang mereka ada tentang pelanggan mereka tanpa perlu menyaring ratusan rekod.

Pengenalan penterjemah

Julian Chen, editor komuniti 51CTO, mempunyai lebih sepuluh tahun pengalaman pelaksanaan projek IT, pandai mengawal sumber komunikasi dalaman dan luaran serta risiko dan pengetahuan dan pengalaman keselamatan maklumat. .

Atas ialah kandungan terperinci Untuk melindungi privasi pelanggan, jalankan model AI sumber terbuka secara tempatan menggunakan Ruby. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Artikel ini dikembalikan pada:51CTO.COM. Jika ada pelanggaran, sila hubungi admin@php.cn Padam
10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajariApr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let ’

Memasak Inovasi: Bagaimana Kecerdasan Buatan Mengubah Perkhidmatan MakananMemasak Inovasi: Bagaimana Kecerdasan Buatan Mengubah Perkhidmatan MakananApr 12, 2025 pm 12:09 PM

AI Menambah Penyediaan Makanan Walaupun masih dalam penggunaan baru, sistem AI semakin digunakan dalam penyediaan makanan. Robot yang didorong oleh AI digunakan di dapur untuk mengautomasikan tugas penyediaan makanan, seperti membuang burger, membuat pizza, atau memasang SA

Panduan Komprehensif mengenai Python Namespaces & Variable ScopesPanduan Komprehensif mengenai Python Namespaces & Variable ScopesApr 12, 2025 pm 12:00 PM

Pengenalan Memahami ruang nama, skop, dan tingkah laku pembolehubah dalam fungsi Python adalah penting untuk menulis dengan cekap dan mengelakkan kesilapan runtime atau pengecualian. Dalam artikel ini, kami akan menyelidiki pelbagai ASP

Panduan Komprehensif untuk Model Bahasa Visi (VLMS)Panduan Komprehensif untuk Model Bahasa Visi (VLMS)Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

MediaTek meningkatkan barisan premium dengan Kompanio Ultra dan Dimensity 9400MediaTek meningkatkan barisan premium dengan Kompanio Ultra dan Dimensity 9400Apr 12, 2025 am 11:52 AM

Meneruskan irama produk, bulan ini MediaTek telah membuat satu siri pengumuman, termasuk Kompanio Ultra dan Dimensity 9400 yang baru. Produk ini mengisi bahagian perniagaan MediaTek yang lebih tradisional, termasuk cip untuk telefon pintar

Minggu ini di AI: Walmart menetapkan trend fesyen sebelum mereka pernah berlakuMinggu ini di AI: Walmart menetapkan trend fesyen sebelum mereka pernah berlakuApr 12, 2025 am 11:51 AM

#1 Google melancarkan Agent2Agent Cerita: Ia Isnin pagi. Sebagai perekrut berkuasa AI, anda bekerja lebih pintar, tidak lebih sukar. Anda log masuk ke papan pemuka syarikat anda di telefon anda. Ia memberitahu anda tiga peranan kritikal telah diperolehi, dijadualkan, dan dijadualkan untuk

AI Generatif Bertemu PsychobabbleAI Generatif Bertemu PsychobabbleApr 12, 2025 am 11:50 AM

Saya akan meneka bahawa anda mesti. Kita semua seolah -olah tahu bahawa psychobabble terdiri daripada pelbagai perbualan yang menggabungkan pelbagai terminologi psikologi dan sering akhirnya menjadi tidak dapat difahami atau sepenuhnya tidak masuk akal. Semua yang anda perlu lakukan untuk memuntahkan fo

Prototaip: saintis menjadikan kertas menjadi plastikPrototaip: saintis menjadikan kertas menjadi plastikApr 12, 2025 am 11:49 AM

Hanya 9.5% plastik yang dihasilkan pada tahun 2022 dibuat daripada bahan kitar semula, menurut satu kajian baru yang diterbitkan minggu ini. Sementara itu, plastik terus menumpuk di tapak pelupusan sampah -dan ekosistem -sekitar dunia. Tetapi bantuan sedang dalam perjalanan. Pasukan Engin

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

MantisBT

MantisBT

Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

MinGW - GNU Minimalis untuk Windows

MinGW - GNU Minimalis untuk Windows

Projek ini dalam proses untuk dipindahkan ke osdn.net/projects/mingw, anda boleh terus mengikuti kami di sana. MinGW: Port Windows asli bagi GNU Compiler Collection (GCC), perpustakaan import yang boleh diedarkan secara bebas dan fail pengepala untuk membina aplikasi Windows asli termasuk sambungan kepada masa jalan MSVC untuk menyokong fungsi C99. Semua perisian MinGW boleh dijalankan pada platform Windows 64-bit.

PhpStorm versi Mac

PhpStorm versi Mac

Alat pembangunan bersepadu PHP profesional terkini (2018.2.1).

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan