Pengambilan Generasi Tambahan (RAG) dengan ketara meningkatkan ketepatan dan kebolehpercayaan model bahasa yang besar (LLM) dengan menggabungkan data luaran. Ini kontekstualisasi jawapan dan membolehkan kemas kini tanpa latihan semula. Walau bagaimanapun, RAG tidak berkesan secara universal. Butiran artikel ini membina saluran paip kain yang mantap, meneroka batasan, dan menawarkan penyelesaian.
Fundamental OpenAI (sebutan ringkas, tidak perlu berkembang)
Ketahui lebih lanjut mengenai menggunakan API OpenAI. Mula sekarang
bagaimana rag berfungsi:
(imej dari dokumentasi llamaindex)
saluran paip RAG terdiri daripada tiga peringkat: pengindeksan, pengambilan semula, dan generasi.
-
Pengindeksan: Data (pelbagai format) dibersihkan, ditukar kepada teks biasa, dipotong ke dalam kepingan yang boleh diurus, dan diubah menjadi vektor berangka (embeddings) menggunakan model embedding. Lembaran dan ketulan ini diindeks untuk carian yang cekap.
-
Pengambilan semula: Pertanyaan pengguna vektor menggunakan model embedding yang sama. Sistem ini mengira skor kesamaan antara vektor pertanyaan dan vektor chunk diindeks, mengambil bahagian atas k yang paling serupa.
-
Generasi: Pertanyaan dan ketulan yang diambil diformat ke dalam segera dan diberi makan kepada LLM untuk Generasi Jawapan.
batasan RAG:
Cabaran wujud di setiap peringkat:
- pengindeksan: data bising membawa kepada respons LLM yang tidak membantu.
- pengambilan semula: sistem mungkin tidak selalu mengambil ketulan yang relevan.
- Generasi: Walaupun dengan pengambilan yang baik, LLM mungkin halusinasi jawapan yang salah.
Meningkatkan prestasi RAG:
Tiga strategi utama menangani batasan-batasan ini: chunking, ranking semula, dan transformasi pertanyaan. Berikut ini menunjukkan ini menggunakan Llamaindex dan API OpenAI untuk menjawab soalan mengenai penyertaan Wikipedia (Emma Stone, Ryan Gosling, La La Land).
Sistem RAG BASELINE:
Pasang pakej yang diperlukan:
!pip install llama-index openai wikipediaTetapkan kunci API Openai anda:
import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"beban data Wikipedia dan membina indeks:
from llama_index.core import (VectorStoreIndex, ServiceContext, download_loader) WikipediaReader = download_loader("WikipediaReader") loader = WikipediaReader() pages = ['Emma_Stone', 'La_La_Land', 'Ryan_Gosling'] documents = loader.load_data(pages=pages, auto_suggest=False, redirect=False) from llama_index.llms import OpenAI from llama_index.embeddings import OpenAIEmbedding, OpenAIEmbeddingModelType gpt3 = OpenAI(temperature=0, model="gpt-3.5-turbo-instruct", api_key=os.environ["OPENAI_API_KEY"]) embed_model = OpenAIEmbedding(model=OpenAIEmbeddingModelType.TEXT_EMBED_ADA_002, api_key=os.environ["OPENAI_API_KEY"]) service_context_gpt3 = ServiceContext.from_defaults(llm=gpt3, chunk_size=256, chunk_overlap=0, embed_model=embed_model) index = VectorStoreIndex.from_documents(documents, service_context=service_context_gpt3) retriever = index.as_retriever(similarity_top_k=3)Buat templat segera untuk memastikan jawapan berasaskan konteks:
from llama_index.core.prompts import PromptTemplate template = ( "We have provided context information below. \n" "---------------------\n" "{context_str}" "\n---------------------\n" "Given this information, please answer the question: {query_str}\n" "Don't give an answer unless it is supported by the context above.\n" ) qa_template = PromptTemplate(template)(pertanyaan awal dan tindak balas subpar ditinggalkan untuk keringkasan. Tumpuannya adalah pada strategi penambahbaikan.)
Memperbaiki dengan Chunking:
Laraskan dan chunk_size
dalam chunk_overlap
untuk mengoptimumkan pengambilan semula. service_context_gpt3
Memperbaiki dengan peringkat semula:
(Contoh kod untuk flagembeddingreranker dan rankgptreRank ditinggalkan untuk keringkasan, tetapi penerangan tetap)
-
flagembeddingreranker: menggunakan model ranking wajah yang memeluk (mis.,
BAAI/bge-reranker-base
) untuk meningkatkan kaitan bahagian. Memerlukan token akses muka yang memeluk. -
RankgptreRank: menggunakan LLM (mis.,
gpt-3.5-turbo-0125
(Contoh kod untuk transformasi pertanyaan hyde dan multi-step ditinggalkan untuk keringkasan, tetapi penerangan tetap)
- Hyde (embeddings dokumen hipotetikal):
menghasilkan jawapan hipotetikal, mewujudkan embeddings untuk kedua -dua pertanyaan dan jawapan hipotetikal, dan mengambil dokumen yang paling dekat dengan embeddings ini.
transformasi pertanyaan multi-langkah: - memecahkan pertanyaan kompleks ke dalam sub-Queries yang lebih mudah untuk pemprosesan yang lebih berkesan.
Artikel ini mempamerkan beberapa teknik untuk meningkatkan prestasi RAG. Pendekatan optimum bergantung kepada aplikasi tertentu dan hasil yang diinginkan. Penjelajahan RAG lebih lanjut boleh didapati di [pautan ke video bersama-sama di sini].
Atas ialah kandungan terperinci Cara Meningkatkan Prestasi Rag: 5 Teknik Utama Dengan Contoh. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Cyberattacks berkembang. Sudahlah hari -hari e -mel phishing generik. Masa depan jenayah siber adalah hiper-peribadi, memanfaatkan data dalam talian yang sedia ada dan AI untuk membuat serangan yang sangat disasarkan. Bayangkan seorang penipu yang mengetahui pekerjaan anda, f anda

Dalam alamat sulungnya ke Kolej Kardinal, kelahiran Chicago Robert Francis Prevost, Paus Leo XIV yang baru dipilih, membincangkan pengaruhnya, Paus Leo XIII, yang Papacy (1878-1903) bertepatan dengan subuh kereta dan

Saya sepenuh hati bersetuju. Kejayaan saya adalah berkaitan dengan bimbingan mentor saya. Wawasan mereka, terutamanya mengenai pengurusan perniagaan, membentuk dasar kepercayaan dan amalan saya. Pengalaman ini menggariskan komitmen saya kepada mentor

Peralatan perlombongan AI yang dipertingkatkan Persekitaran operasi perlombongan adalah keras dan berbahaya. Sistem kecerdasan buatan membantu meningkatkan kecekapan dan keselamatan keseluruhan dengan menghapuskan manusia dari persekitaran yang paling berbahaya dan meningkatkan keupayaan manusia. Kecerdasan buatan semakin digunakan untuk menguasai trak autonomi, latihan dan pemuat yang digunakan dalam operasi perlombongan. Kenderaan berkuasa AI ini boleh beroperasi dengan tepat dalam persekitaran berbahaya, dengan itu meningkatkan keselamatan dan produktiviti. Sesetengah syarikat telah membangunkan kenderaan perlombongan autonomi untuk operasi perlombongan berskala besar. Peralatan yang beroperasi dalam persekitaran yang mencabar memerlukan penyelenggaraan yang berterusan. Walau bagaimanapun, penyelenggaraan boleh menyimpan peranti kritikal di luar talian dan menggunakan sumber. Penyelenggaraan yang lebih tepat bermakna peningkatan uptime untuk peralatan yang mahal dan diperlukan dan penjimatan kos yang signifikan. AI-didorong

Marc Benioff, Ketua Pegawai Eksekutif Salesforce, meramalkan revolusi tempat kerja yang monumental yang didorong oleh ejen AI, transformasi yang sedang dijalankan dalam Salesforce dan pangkalan pelanggannya. Dia membayangkan peralihan dari pasaran tradisional ke pasaran yang jauh lebih besar yang difokuskan

Kebangkitan AI dalam HR: Menavigasi Tenaga Kerja dengan Rakan Robot Penyepaduan AI ke dalam sumber manusia (HR) tidak lagi menjadi konsep futuristik; Ia cepat menjadi realiti baru. Peralihan ini memberi kesan kepada profesional dan pekerja HR, DEM

Kejayaan pendapatan anda betul -betul di hadapan anda. Pecahkan siling dan ambil perniagaan anda ke tahap yang baru. Ini mungkin. Salin, tampal, dan ubah suai kandungan pendakap persegi di CHATGPT dan simpan tetingkap sembang yang sama terbuka supaya konteks dapat diteruskan. Pecahkan halangan pendapatan dengan chatgpt: melepaskan potensi pertumbuhan anda 10 kali minda pertumbuhan Matlamat anda membosankan. Visi perniagaan yang sekali menggembirakan anda kini berasa selamat. Anda mencapai matlamat anda, tetapi anda merasa kosong. Kejayaan tidak berdasarkan nasib. Mereka menetapkan matlamat yang berani yang menakutkan dan menarik. Mereka melihat perniagaan sebagai permainan, dan begitu juga anda. Mengejar pertaruhan yang lebih tinggi. Impiannya lebih besar. Rancangan itu lebih besar. Laksanakan lebih banyak. Tonton hasil anda

Mari kita meneroka persimpangan romantik dan ai generatif yang menarik. Analisis ini adalah sebahagian daripada lajur Forbes yang berterusan pada kemajuan terkini AI, yang memberi tumpuan kepada kerumitan AI yang memberi kesan (lihat pautan di sini). Menentukan semula percintaan: perspektif moden Kami ada


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Penyesuai Pelayan SAP NetWeaver untuk Eclipse
Integrasikan Eclipse dengan pelayan aplikasi SAP NetWeaver.

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

EditPlus versi Cina retak
Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

MinGW - GNU Minimalis untuk Windows
Projek ini dalam proses untuk dipindahkan ke osdn.net/projects/mingw, anda boleh terus mengikuti kami di sana. MinGW: Port Windows asli bagi GNU Compiler Collection (GCC), perpustakaan import yang boleh diedarkan secara bebas dan fail pengepala untuk membina aplikasi Windows asli termasuk sambungan kepada masa jalan MSVC untuk menyokong fungsi C99. Semua perisian MinGW boleh dijalankan pada platform Windows 64-bit.

ZendStudio 13.5.1 Mac
Persekitaran pembangunan bersepadu PHP yang berkuasa
