Rumah > Artikel > Peranti teknologi > Menggunakan teknologi penjanaan yang dipertingkatkan carian untuk menyelesaikan masalah halusinasi kecerdasan buatan
#🎜🎜 ## 作#Author#🎜🎜 ## 🎜🎜#|
🎜🎜#Rahul Pradhan#🎜🎜 ## 🎜🎜 ## 🎜 🎜 ##🎜 🎜 ##🎜 🎜 ## 🎜#Sumber |. https://www.infoworld.com/article/3708254/addressing-ai-hallucinations-with-retrieval-augmented-generation.html# 🎜🎜 Kecerdasan buatan dijangka menjadi teknologi paling berpengaruh pada zaman kita. Kemajuan terkini dalam transformer
teknologi dan kecerdasan buatan generatif telah menunjukkan potensinya untuk membuka kunci inovasi dan kepintaran pada skala.Walau bagaimanapun, AI generatif bukan tanpa cabarannya—cabaran yang mungkin sangat menghalang penerapan dan penciptaan nilai teknologi transformatif ini. Memandangkan model AI generatif terus meningkat dalam kerumitan dan kuasa, mereka juga memberikan cabaran unik, termasuk menjana output yang tidak berdasarkan data input
ialah apabila model menghasilkan hasil output yang. , walaupun koheren, mungkin bercerai daripada fakta atau konteks input. Artikel ini akan memperkenalkan secara ringkas kesan transformatif kecerdasan buatan generatif, mengkaji kelemahan dan cabaran teknologi, dan membincangkan teknik yang boleh digunakan untuk mengurangkan halusinasi.Kesan transformatif kecerdasan buatan generatif
#🎜🎜🎜🎜🎜#🎜🎜🎜🎜 Model AI Generatif memanfaatkan proses pengiraan kompleks pembelajaran mendalam untuk mengenal pasti corak dalam set data yang besar dan menggunakan maklumat ini untuk mencipta output baharu yang menarik. Model ini menggunakan rangkaian saraf dalam teknologi pembelajaran mesin, yang diilhamkan oleh cara otak manusia memproses dan mentafsir maklumat, serta belajar dan bertambah baik dari semasa ke semasa model Generatif AI seperti GPT-4 #OpenAI dan janji PaLM 2 Google untuk membawa inovasi. automasi, analisis data dan pengalaman pengguna. Model ini boleh menulis kod, meringkaskan artikel, dan juga membantu mendiagnosis penyakit. Walau bagaimanapun, kebolehlaksanaan dan nilai muktamad model ini bergantung pada ketepatan dan kebolehpercayaannya. Dalam bidang kritikal seperti perkhidmatan penjagaan kesihatan, kewangan atau undang-undang, kebolehpercayaan ketepatan adalah kritikal. Tetapi untuk semua pengguna merealisasikan potensi penuh AI generatif, cabaran ini mesti ditangani #LLM pada asasnya adalah probabilistik dan tidak menentukan. Mereka menjana teks berdasarkan kemungkinan urutan perkataan tertentu akan berlaku seterusnya. LLM tidak mempunyai tanggapan tentang pengetahuan dan bergantung sepenuhnya pada navigasi melalui korpus data terlatih sebagai enjin cadangan. Teks yang mereka hasilkan secara amnya mengikut peraturan tatabahasa dan semantik, tetapi sepenuhnya berdasarkan ketekalan statistik dengan gesaan.
Sifat kebarangkalian LLM ini adalah kelebihan dan kekurangan. Jika matlamatnya adalah untuk mendapatkan jawapan yang betul atau membuat keputusan kritikal berdasarkan jawapan, maka halusinasi adalah buruk dan boleh menyebabkan kerosakan. Walau bagaimanapun, jika matlamatnya adalah usaha kreatif, kreativiti artistik boleh dipupuk dengan LLM, menghasilkan penciptaan karya seni, jalan cerita dan lakon layar dengan agak cepat.
Walau bagaimanapun, kegagalan untuk mempercayai output modelIlusi LLM terutamanya disebabkan oleh kecacatan dalam set data dan latihan, termasuk aspek berikut
:#🎜 🎜#
Overfitting:
Kualiti Data: #🎜🎜🎜 dalam data latihan Pelabelan dan salah klasifikasi mungkin memainkan peranan penting dalam halusinasi. Data berat sebelah atau kekurangan data yang berkaitan sebenarnya boleh menghasilkan output model yang kelihatan tepat tetapi boleh terbukti berbahaya, bergantung pada skop keputusan yang disyorkan oleh model.
Kekurangan Data: #🎜 atau data adalah terhad atau segar Keperluan untuk data adalah salah satu isu utama yang mencipta ilusi dan menghalang perniagaan daripada menggunakan AI generatif. Menyegarkan data dengan kandungan terkini dan data kontekstual membantu mengurangkan ilusi dan berat sebelah. Menyelesaikan halusinasi dalam model bahasa besar Terdapat beberapa pendekatan untuk
RAG digabungkan dengan data masa nyata dapat mengurangkan halusinasi dengan ketara. RAG membolehkan perusahaan memanfaatkan LLM dengan memanfaatkan data proprietari dan kontekstual terkini. Di samping itu, RAG juga boleh memperkayakan kandungan input dengan maklumat kontekstual tertentu, dengan itu membantu model bahasa menjana respons yang lebih tepat dan berkaitan kontekstual. Dalam persekitaran perusahaan, penalaan halus selalunya tidak praktikal, tetapi RAG menawarkan alternatif kos rendah dan hasil tinggi untuk menyampaikan pengalaman pengguna yang diperibadikan dan termaklum
#🎜🎜 #Secara teratur untuk meningkatkan kecekapan model RAG
, adalah perlu untuk menggabungkan RAG dengan stor data operasi yang mampu menyimpan data dalam bahasa ibunda LLM, yang dipanggil vektor matematik berdimensi tinggi terbenam yang digunakan untuk mengekod makna teks. Apabila pengguna bertanya pertanyaan, pangkalan data menukarnya menjadi vektor berangka. Dengan cara ini, teks berkaitan boleh disoal melalui pangkalan data vektor tanpa mengira sama ada ia mengandungi istilah yang sama atau tidak.Pangkalan data berprestasi tinggi yang tersedia yang mampu menyimpan dan menanyakan sejumlah besar data tidak berstruktur menggunakan carian semantik adalah komponen utama bahagian proses
RAG .
Atas ialah kandungan terperinci Menggunakan teknologi penjanaan yang dipertingkatkan carian untuk menyelesaikan masalah halusinasi kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!