Rumah > Artikel > hujung hadapan web > Membina aplikasi RAG dengan LlamaIndex.ts dan Azure OpenAI: Bermula!
Memandangkan AI terus membentuk cara kita bekerja dan berinteraksi dengan teknologi, banyak perniagaan sedang mencari cara untuk memanfaatkan data mereka sendiri dalam aplikasi pintar. Jika anda telah menggunakan alatan seperti ChatGPT atau Azure OpenAI, anda sudah biasa dengan cara AI generatif boleh meningkatkan proses dan meningkatkan pengalaman pengguna. Walau bagaimanapun, untuk respons yang benar-benar disesuaikan dan berkaitan, aplikasi anda perlu memasukkan data proprietari anda.
Di sinilah Retrieval-Augmented Generation (RAG) masuk, menyediakan pendekatan berstruktur untuk menyepadukan pengambilan data dengan respons dikuasakan AI. Dengan rangka kerja seperti LlamaIndex, anda boleh membina keupayaan ini ke dalam penyelesaian anda dengan mudah, membuka kunci potensi penuh data perniagaan anda.
Mahu menjalankan dan meneroka apl dengan pantas? Klik di sini.
Retrieval-Augmented Generation (RAG) ialah rangka kerja rangkaian saraf yang meningkatkan penjanaan teks AI dengan memasukkan komponen perolehan untuk mengakses maklumat yang berkaitan dan menyepadukan data anda sendiri. Ia terdiri daripada dua bahagian utama:
Retriever mencari dokumen yang berkaitan, dan penjana menggunakannya untuk mencipta respons yang lebih tepat dan bermaklumat. Gabungan ini membolehkan model RAG memanfaatkan pengetahuan luaran dengan berkesan, meningkatkan kualiti dan kaitan teks yang dijana.
Untuk melaksanakan sistem RAG menggunakan LlamaIndex, ikut langkah umum ini:
Untuk contoh praktikal, kami telah menyediakan contoh aplikasi untuk menunjukkan pelaksanaan RAG yang lengkap menggunakan Azure OpenAI.
Kami kini akan menumpukan pada membina aplikasi RAG menggunakan LlamaIndex.ts (pelaksanaan TypeScipt LlamaIndex) dan Azure OpenAI, dan menggunakan padanya sebagai Apl Web tanpa pelayan pada Apl Kontena Azure.
Anda akan menemui projek permulaan di GitHub. Kami mengesyorkan anda untuk memotong templat ini supaya anda boleh mengeditnya dengan bebas apabila diperlukan:
Aplikasi projek permulaan dibina berdasarkan seni bina berikut:
有關部署哪些資源的更多詳細信息,請檢查我們所有範例中可用的 infra 資料夾。
範例應用程式包含兩個工作流程的邏輯:
資料攝取:取得資料、向量化資料並建立搜尋索引。如果您想要新增更多文件,例如 PDF 或 Word 文件,您應該在此處新增它們。
npm run generate
服務提示請求:應用程式接收使用者提示,將其傳送至 Azure OpenAI,並使用向量索引作為擷取器來增強這些提示。
執行範例之前,請確保您已預配必要的 Azure 資源。
要在 GitHub Codespace 中執行 GitHub 模板,只需按一下
在您的 Codespaces 實例中,從終端機登入您的 Azure 帳戶:
azd auth login
使用單一命令配置、打包範例應用程式並將其部署到 Azure:
azd up
要在本地運行並嘗試應用程序,請安裝 npm 依賴項並運行應用程式:
npm install npm run dev
應用程式將在您的 Codespaces 實例中的連接埠 3000 或瀏覽器中的 http://localhost:3000 上執行。
本指南示範如何使用 LlamaIndex.ts 和 Azure OpenAI 建置部署在 Microsoft Azure 上的無伺服器 RAG(擷取增強產生)應用程式。透過遵循本指南,您可以利用 Azure 的基礎架構和 LlamaIndex 的功能來建立強大的 AI 應用程序,這些應用程式可根據您的資料提供上下文豐富的回應。
我們很高興看到您使用這個入門應用程式建立的內容。請隨意 fork 它並喜歡 GitHub 存儲庫以接收最新的更新和功能。
Atas ialah kandungan terperinci Membina aplikasi RAG dengan LlamaIndex.ts dan Azure OpenAI: Bermula!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!