


Llamaindex: Rangka Kerja Data untuk Aplikasi Berdasarkan Model Bahasa Besar (LLMS)
llamaindex: rangka data yang memberi kuasa kepada model bahasa besar
Llamaindex adalah rangka kerja data aplikasi berdasarkan model bahasa besar (LLM). LLMS seperti GPT-4 Pra-Latih Sekumpulan besar set data awam untuk menyediakan keupayaan pemprosesan bahasa semulajadi yang kuat dari kotak. Walau bagaimanapun, utiliti mereka akan terhad tanpa akses kepada data peribadi anda sendiri.
Llamaindex membolehkan anda menelan data dari API, pangkalan data, PDF dan sumber lain melalui penyambung data yang fleksibel. Data -data ini diindeks ke dalam perwakilan perantaraan yang dioptimumkan untuk LLM. Llamaindex kemudian membenarkan pertanyaan bahasa dan perbualan semula jadi dengan data anda melalui enjin pertanyaan, antara muka sembang, dan ejen yang didorong oleh LLM. Ia membolehkan LLM anda mengakses dan mentafsir data peribadi secara berskala tanpa melatih semula model.
Sama ada anda seorang pemula mencari kaedah bahasa semulajadi yang mudah untuk menanyakan data, atau pengguna lanjutan yang memerlukan penyesuaian yang mendalam, Llamaindex mempunyai alat yang sepadan. API Lanjutan membolehkan anda memulakan dengan hanya lima kod elemen, manakala API peringkat rendah membolehkan anda mengawal sepenuhnya pengambilan data, pengindeksan, pengambilan dan banyak lagi.
bagaimana llamaindex berfungsi
Llamaindex menggunakan sistem generasi yang dipertingkatkan (RAG) yang menggabungkan model bahasa yang besar dengan asas pengetahuan peribadi. Ia biasanya terdiri daripada dua fasa: fasa pengindeksan dan fasa pertanyaan.
gambar adalah dari konsep canggih
Fasa indeksSemasa fasa pengindeksan, Llamaindex akan mengindeks data peribadi dengan cekap ke dalam indeks vektor. Langkah ini membantu mewujudkan asas pengetahuan yang boleh dicari khusus untuk bidang anda. Anda boleh memasukkan dokumen teks, rekod pangkalan data, graf pengetahuan, dan jenis data lain.
Pada dasarnya, indeks menukarkan data ke dalam vektor angka atau embedding untuk menangkap makna semantiknya. Ia membolehkan carian cepat kesamaan di seluruh kandungan.
Peringkat pertanyaan
Di peringkat pertanyaan, saluran paip RAG mencari maklumat yang paling relevan berdasarkan pertanyaan pengguna. Maklumat ini kemudiannya diberikan kepada LLM dengan pertanyaan untuk membuat respons yang tepat.
Prosedur ini membolehkan LLM mengakses maklumat semasa dan terkini yang mungkin tidak dimasukkan dalam latihan awalnya.
Cabaran utama pada peringkat ini adalah untuk mengambil, mengatur, dan alasan tentang maklumat dari pelbagai pangkalan pengetahuan yang mungkin wujud.
Ketahui lebih lanjut mengenai RAG dalam sampel Kod Generasi Pinecone Retrieval kami.
Tetapan llamaindex
Sebelum kita menyelam ke dalam tutorial dan projek Llamaindex, kita perlu memasang pakej Python dan menubuhkan API.
kita hanya boleh memasang llamaindex menggunakan PIP.
<code>pip install llama-index</code>Secara lalai, Llamaindex menggunakan model OpenAI GPT-3-3-Davinci-003. Untuk menggunakan model ini, anda mesti menetapkan OpenAI_API_KEY. Anda boleh membuat akaun percuma dan mendapatkan kunci API dengan log masuk ke token API baru OpenAI.
<code>pip install llama-index</code>
Juga, pastikan anda telah memasang pakej Openai.
<code>import os os.environ["OPENAI_API_KEY"] = "INSERT OPENAI KEY"</code>
Tambahkan data peribadi ke LLM menggunakan llamaindex
Dalam bahagian ini, kita akan belajar bagaimana membuat pembaca resume menggunakan Llamaindex. Anda boleh memuat turun resume anda dengan melawat halaman profil LinkedIn, mengklik "Lebih", dan kemudian "Simpan sebagai PDF".
Sila ambil perhatian bahawa kami menggunakan Datalab untuk menjalankan kod Python. Anda boleh mengakses semua kod dan output yang relevan dalam llamaindex: Tambah data peribadi ke buku kerja LLM;
kita mesti memasang llama-index, openai dan pypdf sebelum menjalankan apa-apa. Kami memasang PYPDF supaya kami dapat membaca dan menukar fail PDF.
<code>pip install openai</code>
memuatkan data dan buat indeks
Kami mempunyai direktori yang dipanggil "Data Private" yang mengandungi hanya satu fail PDF. Kami akan membacanya menggunakan SimpleDirectoryReader dan kemudian menukarnya ke indeks menggunakan TreeIndex.
<code>%pip install llama-index openai pypdf</code>
RUN Query
Setelah data diindeks, anda boleh mula bertanya dengan menggunakan as_query_engine (). Fungsi ini membolehkan anda bertanya soalan mengenai maklumat khusus dalam dokumen dan mendapatkan respons yang sepadan dengan bantuan model OpenAI GPT-3 Text-Davinci-003.
NOTA: Anda boleh menyediakan API OpenAI di Datalab berikutan arahan untuk menggunakan GPT-3.5 dan GPT-4 melalui API OpenAI dalam tutorial Python.
Seperti yang dapat kita lihat, model LLM menjawab pertanyaan dengan tepat. Ia mencari indeks dan mendapati maklumat yang relevan.
<code>from llama_index import TreeIndex, SimpleDirectoryReader resume = SimpleDirectoryReader("Private-Data").load_data() new_index = TreeIndex.from_documents(resume)</code>
<code>query_engine = new_index.as_query_engine() response = query_engine.query("When did Abid graduated?") print(response)</code>
kita boleh meminta maklumat pensijilan lagi. Nampaknya Llamaindex telah memahami sepenuhnya calon -calon, yang mungkin memberi manfaat kepada syarikat -syarikat yang mencari bakat tertentu.
<code>Abid graduated in February 2014.</code>
<code>response = query_engine.query("What is the name of certification that Abid received?") print(response)</code>
Konteks Simpan dan Beban
Mewujudkan indeks adalah proses yang memakan masa. Kita boleh mengelakkan mencipta indeks dengan menyimpan konteks. Secara lalai, arahan berikut akan menyimpan kedai indeks yang disimpan dalam direktori ./Storage.
<code>Data Scientist Professional</code>
<code>new_index.storage_context.persist()</code>Untuk mengesahkan bahawa ia berfungsi dengan betul, kami akan bertanya soalan enjin pertanyaan dalam resume. Nampaknya kami berjaya memuatkan konteksnya.
<code>from llama_index import StorageContext, load_index_from_storage storage_context = StorageContext.from_defaults(persist_) index = load_index_from_storage(storage_context)</code>
<code>query_engine = index.as_query_engine() response = query_engine.query("What is Abid's job title?") print(response)</code>chatbot
Di samping Q & A, kita juga boleh membuat chatbots peribadi menggunakan Llamaindex. Kami hanya perlu menggunakan fungsi as_chat_engine () untuk memulakan indeks.
kami akan mengemukakan soalan mudah.
<code>Abid's job title is Technical Writer.</code>
<code>query_engine = index.as_chat_engine() response = query_engine.chat("What is the job title of Abid in 2021?") print(response)</code>Dan tanpa menyediakan konteks tambahan, kami akan bertanya soalan susulan.
<code>Abid's job title in 2021 is Data Science Consultant.</code>
<code>response = query_engine.chat("What else did he do during that time?") print(response)</code>jelas bahawa enjin sembang berjalan dengan sempurna.
Selepas membina aplikasi bahasa, langkah seterusnya pada garis masa anda adalah membaca tentang kebaikan dan keburukan menggunakan model bahasa besar (LLM) di awan berbanding menjalankannya secara tempatan. Ini akan membantu anda menentukan pendekatan mana yang terbaik untuk keperluan anda.
Bina Wikitext untuk Ucapan dengan Llamaindex
Projek seterusnya kami melibatkan membangunkan aplikasi yang dapat menjawab soalan dari Wikipedia dan mengubahnya menjadi suara.
Sumber kod dan maklumat tambahan boleh didapati dalam buku kerja Datalab.
laman web merangkak halaman wikipedia
Pertama, kami akan merangkak data dari laman web Itali-Wikipedia dan simpannya sebagai fail Italy_text.txt dalam folder data.
<code>pip install llama-index</code>
Seterusnya, kita perlu memasang pakej yang diperlukan. Pakej ElevenLabs membolehkan kami dengan mudah menukar teks ke ucapan menggunakan API.
<code>import os os.environ["OPENAI_API_KEY"] = "INSERT OPENAI KEY"</code>Dengan menggunakan SimpleDirectoryReader, kami akan memuatkan data dan menukar fail txt ke kedai vektor menggunakan VectorStoreIndex.
<code>pip install openai</code>pertanyaan
Pelan kami adalah untuk bertanya soalan umum tentang negara dan mendapatkan respons dari LLM query_engine.
<code>%pip install llama-index openai pypdf</code>
teks untuk suara
, kami akan menggunakan modul llama_index.tts untuk mengakses API ElevenLabstts. Anda perlu menyediakan kunci API ElevenLabs untuk membolehkan ciri generasi audio. Anda boleh mendapatkan kunci API secara percuma di laman web ElevenLabs.
Kami menambah tindak balas kepada fungsi Generate_audio untuk menghasilkan ucapan semula jadi. Untuk mendengar audio, kami akan menggunakan fungsi audio ipython.display.
<code>from llama_index import TreeIndex, SimpleDirectoryReader resume = SimpleDirectoryReader("Private-Data").load_data() new_index = TreeIndex.from_documents(resume)</code>
<code>query_engine = new_index.as_query_engine() response = query_engine.query("When did Abid graduated?") print(response)</code>
Ini adalah contoh mudah. Anda boleh menggunakan pelbagai modul untuk membuat pembantu anda, seperti Siri, yang menjawab soalan anda dengan menafsirkan data peribadi anda. Untuk maklumat lanjut, lihat dokumentasi Llamaindex.
Llamaindex Gunakan Kes
Llamaindex menyediakan toolkit lengkap untuk membina aplikasi berasaskan bahasa. Paling penting, anda boleh menggunakan pelbagai pemuat data dan alat ejen di Hub Llama untuk membangunkan aplikasi yang kompleks dengan pelbagai keupayaan.
Anda boleh menggunakan satu atau lebih pemuat data plugin untuk menyambungkan sumber data tersuai ke LLM anda.
Loader Data dari Llama Hub
Anda juga boleh menggunakan alat ejen untuk mengintegrasikan alat dan API pihak ketiga.
Singkatnya, anda boleh membina dengan llamaindex:
Q & A berasaskan dokumen
- chatbot
- Agensi
- data berstruktur
- aplikasi web stack penuh
- Tetapan peribadi
- Untuk mengetahui lebih lanjut mengenai kes -kes penggunaan ini, lawati dokumentasi Llamaindex.
Llamaindex menyediakan toolkit yang kuat untuk membina sistem penjanaan semula pengambilan semula yang menggabungkan manfaat model bahasa yang besar dan pangkalan pengetahuan tersuai. Ia dapat mewujudkan kedai indeks data khusus domain dan menggunakannya semasa kesimpulan untuk menyediakan konteks yang relevan untuk LLM untuk menjana respons berkualiti tinggi.
Dalam tutorial ini, kami belajar tentang Llamaindex dan prinsip -prinsipnya. Di samping itu, kami membina projek pembaca resume dan teks-ke-ucapan menggunakan hanya beberapa baris kod Python. Mewujudkan aplikasi LLM dengan Llamaindex sangat mudah, dan ia menyediakan perpustakaan besar plugin, pemuat data dan ejen.
Untuk menjadi pemaju LLM pakar, langkah seterusnya adalah untuk mengambil kursus induk konsep model bahasa yang besar. Kursus ini akan memberi anda pemahaman yang komprehensif mengenai LLM, termasuk aplikasi mereka, kaedah latihan, pertimbangan etika dan penyelidikan terkini.
Atas ialah kandungan terperinci Llamaindex: Rangka Kerja Data untuk Aplikasi Berdasarkan Model Bahasa Besar (LLMS). Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

AI menyelaraskan pemulihan kebakaran hutan yang membenarkan Firma teknologi Australia Archistar's AI Software, menggunakan pembelajaran mesin dan penglihatan komputer, mengautomasikan penilaian rancangan bangunan untuk mematuhi peraturan tempatan. Kepentingan pra-pengesahan ini

Kerajaan Digital Estonia: Model untuk AS? AS berjuang dengan ketidakcekapan birokrasi, tetapi Estonia menawarkan alternatif yang menarik. Negara kecil ini mempunyai hampir 100% kerajaan yang berpusatkan rakyat yang dikuasai oleh AI. Ini bukan

Merancang perkahwinan adalah tugas yang monumental, selalunya menggembirakan walaupun pasangan yang paling teratur. Artikel ini, sebahagian daripada siri Forbes yang berterusan mengenai kesan AI (lihat pautan di sini), meneroka bagaimana AI generatif dapat merevolusikan perancangan perkahwinan. Perkahwinan pl

Perniagaan semakin memanfaatkan ejen AI untuk jualan, sementara kerajaan menggunakannya untuk pelbagai tugas yang ditetapkan. Walau bagaimanapun, penyokong pengguna menyerlahkan keperluan bagi individu untuk memiliki ejen AI mereka sendiri sebagai pertahanan terhadap yang sering disasarkan

Google mengetuai peralihan ini. Ciri "AI Gambaran Keseluruhan" sudah melayani lebih daripada satu bilion pengguna, memberikan jawapan lengkap sebelum ada yang mengklik pautan. [^2] Pemain lain juga mendapat tanah dengan cepat. Chatgpt, microsoft copilot, dan pe

Pada tahun 2022, beliau mengasaskan permulaan pertahanan kejuruteraan sosial Doppel untuk berbuat demikian. Dan sebagai penjenayah siber memanfaatkan model AI yang lebih maju untuk mengatasi serangan mereka, sistem AI Doppel telah membantu perniagaan memerangi mereka secara lebih cepat dan lebih cepat dan lebih cepat

Voila, melalui berinteraksi dengan model dunia yang sesuai, AI generatif dan LLMs boleh didorong secara substansial. Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk

Hari Buruh 2050. Taman di seluruh negara mengisi dengan keluarga yang menikmati barbeku tradisional manakala perarakan nostalgia angin melalui jalan -jalan bandar. Namun perayaan kini membawa kualiti muzium seperti muzium-reenactment bersejarah dan bukannya peringatan c


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Versi Mac WebStorm
Alat pembangunan JavaScript yang berguna

SublimeText3 versi Inggeris
Disyorkan: Versi Win, menyokong gesaan kod!

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 Linux versi baharu
SublimeText3 Linux versi terkini
