Model Bahasa Besar (LLMS) menjana teks menggunakan teknik yang dipanggil autoregression, yang melibatkan meramalkan perkataan yang paling mungkin dalam urutan berdasarkan kata -kata sebelumnya. Ejen berkuasa LLM seperti CHATGPT juga disesuaikan untuk mengikuti niat pengguna. Oleh itu, mereka bukan sahaja melengkapkan urutan input tetapi menangkap niat pengguna pada input dan menghasilkan respons dengan sewajarnya.
Jika anda telah mencuba chatgpt untuk seketika, saya pasti anda telah menyedari bahawa kualiti dari jawapan yang diberikan juga bergantung kepada kualiti input pengguna, mis., Agen memberikan respons "lebih baik" kepada pertanyaan tertentu daripada yang lain . Rahsia untuk mendapatkan kembali
Jawapan yang terbaikadalah memahami bagaimana LLM menghasilkan output dan merumuskan input prompt dengan sewajarnya. Set teknik yang digunakan untuk input pengguna untuk mengeksploitasi potensi penuh model dikenali sebagai kejuruteraan segera. Dalam artikel ini, kami akan meneroka salah satu teknik kejuruteraan yang paling kuat: Rantai-of-Thought (COT) yang mendorong. Teknik ini melibatkan penstrukturan dengan cara yang memudahkan model menyelesaikan tugas-tugas kompleks yang memerlukan penalaran atau penyelesaian masalah. Telah ditunjukkan bahawa, tanpa katil, model yang sama gagal memberikan jawapan yang betul.
Keupayaan lalai model
Walaupun LLMs dikenali kerana keupayaan mereka untuk umum,
keupayaan model bergantung pada tugas. Apabila menggunakan LLMS, adalah penting untuk mempertimbangkan bahawa setiap model telah dilatih dalam pangkalan data yang besar namun terhad, dan ia telah dioptimumkan untuk tugas -tugas tertentu. Oleh itu, sementara model boleh menjadi sangat berprestasi dalam domain tertentu, ia mungkin gagal dalam orang lain. keupayaan model juga bergantung pada masa. Seperti pada manusia, jika anda memberi saya sejumlah 5 digit, anda memerlukan sedikit masa untuk berfikir dan menjawab kembali dengan jawapan yang betul. Jika anda melakukannya dengan tergesa -gesa, anda boleh dengan mudah salah perhitungan dan gagal dalam respons anda.
Begitu juga, jika kita memberikan model bahasa tugas yang terlalu rumit untuk dilakukan pada masa yang diperlukan untuk mengira token seterusnya, ia mungkin gagal memberikan jawapan yang betul.
Namun, sama seperti manusia, itu tidak semestinya bermakna model tidak mampu tugasnya.
dengan beberapa waktu atau bimbingan untuk membuat alasan, model mungkin masih dapat menjawab dengan pasti.tindak balas model dan masa yang diperlukan untuk menjana ia juga boleh dipengaruhi oleh pelbagai faktor, seperti kata -kata khusus soalan:
- Jika prompt adalah pendek dan mudah , ia mungkin tidak mengambil banyak masa untuk model menjana token seterusnya.
- Jika prompt adalah panjang dan kompleks , model mungkin perlu memproses lebih banyak maklumat sebelum menghasilkan token seterusnya, yang boleh mengambil masa yang lebih lama.
Panduan yang mendorong Panduan LLM untuk berjaya menyelesaikan tugas-tugas yang kompleks, dengan memilih cara merumuskan prompt dan menyediakan model dengan masa atau langkah yang diperlukan untuk menghasilkan jawapan yang betul.
apakah yang mendorong rantai?
Pemeriksaan rantai adalah teknik yang meningkatkan prestasi model bahasa oleh secara eksplisit mendorong model untuk menghasilkan penjelasan langkah demi langkah atau proses pemikiran sebelum tiba di jawapan akhir . Kaedah ini membantu model untuk memecahkan masalah dan tidak melangkau sebarang tugas pertengahan untuk mengelakkan kegagalan penalaran.
COT adalah berkesan kerana ia membantu memfokuskan mekanisme perhatian LLM. Penguraian proses penalaran menjadikan model menumpukan perhatiannya pada satu bahagian masalah pada satu masa, meminimumkan risiko kesilapan yang mungkin timbul daripada mengendalikan terlalu banyak maklumat secara serentak.
Asal Cot
Penyelidik di Google memperkenalkan rantaian-pemikiran yang mendorong dalam kertas bertajuk "Rantaian Pemikiran Menggalakkan Penalaran dalam Model Bahasa Besar" Pada tahun 2022.
mari kita lihat salah satu contoh yang dicadangkan:
seperti yang dapat kita perhatikan, menghasilkan rantai pemikiran - satu siri langkah penalaran pertengahan - membantu model untuk memberikan jawapan yang betul.
Penulis asal merujuk kepada rantaian pemikiran sebagai siri langkah penalaran bahasa semulajadi pertengahan yang membawa kepada output akhir, merujuk kepada pendekatan ini sebagai rantaian yang dipikirkan.
bagaimana kerja-kerja yang mendorong rantai?Proses bermula dengan kerajinan yang menggalakkan model untuk berfikir melalui masalah dengan cara demi langkah, dengan itu menghasilkan langkah-langkah pertengahan tanpa melompat terus ke jawapan akhir. Ini boleh dilakukan dengan menggunakan strategi yang berbeza:
#1. Arahan Eksplisit
Memberi arahan eksplisit bermaksud menguraikan masalah dalam pengguna sendiri. Sebagai contoh, menggunakan ayat -ayat seperti "Pertama, kita perlu mempertimbangkan ..." untuk mendorong model untuk memperincikan proses pemikirannya.
mari kita lihat dalam tindakan!
Bayangkan ibu Sepanyol saya telah menghantar saya resipi keluarga untuk menyediakan minuman sejuk:
input_text = """ ¡Preparar café Cold Brew es un proceso sencillo y refrescante! Todo lo que necesitas son granos de café molido grueso y agua fría. Comienza añadiendo el café molido a un recipiente o jarra grande. Luego, vierte agua fría, asegurándote de que todos los granos de café estén completamente sumergidos. Remueve la mezcla suavemente para garantizar una saturación uniforme. Cubre el recipiente y déjalo en remojo en el refrigerador durante al menos 12 a 24 horas, dependiendo de la fuerza deseada. """
katakan kami berminat untuk menterjemahkan semua perkataan berkaitan kopi ke bahasa Inggeris, dan kami ingin menggunakan chatgpt untuk tugas:
prompt = f""" Give me a numbered list of all coffee-related words in English from the text below: Text: """ response = chatgpt_call(prompt) print(response)
inilah tindak balas terhadap prompt ini:
kita boleh mempertimbangkan bahawa tugas ini adalah kompleks kerana ia memerlukan dua langkah:
- menerjemahkan teks dari bahasa Sepanyol ke Bahasa Inggeris.
- Mengenal pasti perkataan yang berkaitan dengan kopi.
prompt = f""" Give me a numbered list of all coffee-related words in English from the text below: The task requires the following actions: 1 - Translate the given text into English. 2 - List each coffee-related word from the English text. Text: """ response = chatgpt_call(prompt) print(response)Termasuk rantai-of-shought di atas membawa kepada jawapan yang betul:
Jika anda berminat untuk mencuba teknik ini dengan LLM lain dan bukannya CHATGPT atau API OpenAI, seperti dalam artikel ini, kursus "membangunkan model bahasa besar" adalah untuk anda!
#2. Arahan tersirat
Kadang -kadang, tidak perlu menguraikan masalah itu sendiri. Universiti Tokyo, bersama -sama dengan Penyelidikan Google, mencadangkan kaedah yang baik untuk meningkatkan respons LLM yang terdiri daripada hanya menambah "mari kita berfikir langkah demi langkah" pada akhir prompt asal.
Kalimat mudah ini mendorong model untuk membuat alasan dengan kuat dan melalui semua langkah yang diperlukan untuk menjalankan tugas.
mari kita menganalisis salah satu contoh yang dicadangkan oleh penulis dalam kertas asal "Model bahasa yang besar adalah penimbang sifar-tembakan":
[a]
Dalam contoh pertama, penulis meminta model untuk menyelesaikan masalah aritmetik, tetapi gagal dalam tugas ini. [b] Kemudian, dengan menambahkan "mari kita berfikir langkah demi langkah" kepada soalan asal, model alasan jawapannya dengan kuat dan berjaya. Menggunakan helah mudah ini kepada dataset Multiarith Math, penulis mendapati bahawa arahan tersirat ini empat kali ganda ketepatan dari 18% hingga 79%! Jika anda berminat, anda boleh membaca lebih lanjut mengenai teknik ini di "Gunakan arahan pendek ini untuk meningkatkan hasil Chatgpt." Kami telah menggunakan istilah "sifar-shot" di bahagian di atas beberapa kali. Zero-shot merujuk kepada keupayaan model untuk melaksanakan tugas tanpa terlatih secara eksplisit pada contoh tugas tertentu . Ia bergantung kepada keupayaan model untuk umum dan menghasilkan respons yang sesuai untuk tugas -tugas baru dan sebelumnya yang tidak kelihatan. Ini bermakna apabila kita membuka antara muka pengguna Chatgpt dan mengemukakan soalan dengan segera, kita melakukan sifar-shot yang mendorong. Menyediakan satu siri contoh demonstrasi dikenali sebagai satu-tembakan dan beberapa tembakan yang mendorong , bergantung kepada bilangan contoh yang disediakan.
menunjukkan model satu contoh yang serupa dengan tugas sasaran untuk panduan.
Sebagai contoh, jika kita merujuk kembali kepada angka pertama artikel itu, kita dapat melihat bahawa model itu menghasilkan rantaian yang difikirkan terima kasih kepada contoh demonstrasi yang disediakan dalam prompt. beberapa-shot menggesa , biasanya sekitar seratus. Prestasi model meningkat secara linear dengan bilangan contoh.
beberapa tembakan yang dipelajari oleh Jason Wei dan Denny Zhou et al. dari Google. Pendekatan ini amat berguna untuk tugas-tugas yang memerlukan lebih banyak pengetahuan khusus atau domain khusus, di mana model mungkin tidak mempunyai pengetahuan latar belakang yang mencukupi untuk melaksanakan tugas menggunakan sifar-shot atau satu tembakan yang mendorong. .
Lihat lebih banyak contoh satu pukulan dan beberapa tembakan yang mendorong pada "meningkatkan prestasi chatgpt dengan kejuruteraan segera." Cot-shot cot menggesa . Menggabungkan beberapa tempat tidur yang menggabungkan dengan teknik lain, seperti generasi pengambilan semula atau pertanyaan interaktif, dapat meningkatkan lagi prestasi dan kebolehpercayaan model. Mengintegrasikan pangkalan pengetahuan luaran, pangkalan data, atau sistem pengambilan maklumat membolehkan model untuk meningkatkan penalarannya dengan maklumat faktual dan terkini. Maze masalah matematik untuk menggambarkan bagaimana COT dapat membantu model menavigasi ruang pengetahuan dan menyelesaikan tugas -tugas yang kompleks. Imej yang dihasilkan sendiri menggunakan Generasi Imej ChatGPT 4O dengan prompt berikut "Bayangkan agen model bahasa melalui maze masalah matematik". Terdapat pelbagai cara untuk memasukkan katil dalam arahan kami: Rangka kerja berganda dapat membantu anda melaksanakan COT dan teknik kejuruteraan yang lain, tetapi Langchain adalah kegemaran saya. Jika anda berminat menggunakan Langchain sebagai sebahagian daripada projek berkuasa LLM anda, kursus "membangunkan aplikasi LLM dengan Langchain" adalah titik permulaan yang ideal. Rantai-of-shought mendorong beberapa faedah, terutamanya dalam meningkatkan prestasi dan kebolehpercayaan model bahasa dalam tugas kompleks. Dengan memecahkan masalah ke dalam langkah -langkah yang lebih kecil, terkawal, model dapat mengendalikan tugas -tugas kompleks dengan lebih tepat. Langkah -langkah pertengahan menyediakan pusat pemeriksaan di mana kesilapan yang berpotensi dapat ditangkap dan diperbetulkan, yang membawa kepada jawapan akhir yang lebih tepat. Sebab mengapa tugas-tugas seperti masalah matematik, teka-teki logik, atau menjawab soalan multi-hop, mendapat manfaat daripada pendekatan ini adalah kerana mereka secara semulajadi memerlukan pelbagai langkah penalaran .
Ia juga boleh membantu dalam debugging kerana pengguna dapat lebih mudah ditemui di mana model mungkin salah dalam penalarannya. Sudah tentu, seperti mana -mana teknik, selalu ada kelemahan tertentu yang patut dipertimbangkan: Adalah penting untuk mempertimbangkan bahawa COT adalah teknik yang bergantung kepada . Oleh itu, keberkesanan COT yang mendorong sebahagian besarnya bergantung kepada keupayaan model bahasa yang mendasari. Kerajinan cot cot yang berkesan juga boleh mencabar. Ia memerlukan reka bentuk yang berhati -hati untuk memastikan bahawa arahan membimbing model dengan betul melalui proses penalaran. Mengemas kini dan mengekalkan Prompt untuk pelbagai jenis tugas dan domain boleh memakan masa dan mungkin memerlukan penghalusan yang berterusan. Cot menggesa mungkin tidak berkesan untuk tugas -tugas yang tidak mempunyai proses penalaran berurutan yang jelas. Lebih-lebih lagi, saya tidak boleh umum dengan baik kepada jenis masalah yang baru atau tidak dijangka tanpa latihan atau penyesuaian tambahan, jadi mengekalkan asas pengetahuan terkini dan arahan yang sesuai adalah penting.
ia juga boleh membawa kepada output yang lebih panjang dan lebih verbose , yang mungkin tidak semestinya wajar untuk semua aplikasi.
Kejuruteraan cepat boleh memberi impak besar kepada output anda!
Anda boleh mengetahui lebih lanjut mengenai kejuruteraan segera melalui kursus DataCamp, memahami kejuruteraan segera dan kejuruteraan cepat chatgpt untuk pemaju. Anda juga boleh menyemak panduan berasingan untuk memberi pensijilan kejuruteraan dan mengetahui jalan pembelajaran terbaik untuk anda. #3. Contoh demonstrasi
One-shot menggabungkan melibatkan Pembelajaran beberapa-tembakan berfungsi sama seperti satu-shot, tetapi
bilangan contoh yang diberikan adalah lebih tinggi satu tembakan dan beberapa tembakan yang menggesa bukan katil. Walau bagaimanapun, para penyelidik telah meneroka bagaimana pembelajaran beberapa tembakan dapat digabungkan dengan cot yang mendorong, yang dikenali sebagai "beberapa tembakan yang mendorong." Dalam beberapa katil,
model disediakan dengan beberapa contoh masalah bersama dengan penyelesaian langkah demi langkah mereka untuk membimbing proses penalarannya Melaksanakan rantaian-pemikiran yang mendorong dalam amalan
faedah rantaian yang mendorong
#1. Ketepatan yang lebih baik
Proses penalaran langkah demi langkah adalah telus, membolehkan pengguna memahami bagaimana model tiba pada kesimpulannya. Ketelusan ini membina kepercayaan dalam output model.
Batasan dan Pertimbangan
ketergantungan model
Generasi Prompt
Prestasi
Walaupun COT mendorong meningkatkan tafsiran dengan memberikan penjelasan langkah demi langkah,
Dalam artikel ini, kita telah melihat bagaimana rantaian-pemikiran yang mendorong mewakili kemajuan yang signifikan dalam meningkatkan keupayaan pemikiran model bahasa yang besar, bersama dengan beberapa contoh praktikal pelaksanaannya. rantaian yang menggalakkan Soalan Lazim
Ia paling bermanfaat untuk masalah di mana proses terperinci, langkah demi langkah juga secara semulajadi diperlukan untuk mencapai jawapan yang betul. Langkah-langkah, seperti mengenal pasti kedudukan semasa, menilai laluan yang mungkin, dan memilih jalan dengan halangan-halangan yang paling sedikit. Ini amat berharga dalam bidang seperti penjagaan kesihatan dan kewangan, di mana pemahaman rasional di sebalik keputusan AI adalah penting. masalah. Sebaliknya, pengertian pelbagai langkah melibatkan secara berurutan memberikan petunjuk atau petunjuk tambahan pada setiap peringkat masalah, secara progresif membimbing model ke arah penyelesaian. Model ini menghasilkan pelbagai rantai untuk soalan yang sama, setiap rantai mewakili jalan penalaran yang berbeza. Jawapan akhir ditentukan berdasarkan hasil yang paling kerap berlaku di antara laluan penalaran yang berbeza ini. Ini membantu dalam mengurangkan kesilapan yang mungkin berlaku dalam rantaian penalaran tunggal.
Atas ialah kandungan terperinci Menggalakkan Rantai-of-Whought: Penalaran langkah demi langkah dengan LLMS. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Walaupun ia tidak dapat memberikan sambungan manusia dan intuisi ahli terapi terlatih, penyelidikan telah menunjukkan bahawa ramai orang selesa berkongsi kebimbangan dan kebimbangan mereka dengan bot AI yang agak tidak berwajah dan tanpa nama. Sama ada ini selalu baik saya

Kecerdasan Buatan (AI), satu dekad teknologi dalam pembuatan, merevolusikan industri runcit makanan. Dari keuntungan kecekapan berskala besar dan pengurangan kos kepada proses yang diselaraskan di pelbagai fungsi perniagaan, kesan AI adalah undeniabl

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini termasuk mengenal pasti dan menjelaskan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Di samping itu, untuk comp saya

Mengekalkan imej profesional memerlukan kemas kini almari pakaian sekali -sekala. Walaupun membeli-belah dalam talian adalah mudah, ia tidak mempunyai kepastian percubaan secara peribadi. Penyelesaian saya? Peribadi yang berkuasa AI. Saya membayangkan pembantu AI yang mengendalikan pakaian selecti

Google Translate menambah fungsi pembelajaran bahasa Menurut Android Authority, App Expers AssembleDebug telah mendapati bahawa versi terbaru aplikasi Google Translate mengandungi mod ujian "amalan" baru yang direka untuk membantu pengguna meningkatkan kemahiran bahasa mereka melalui aktiviti yang diperibadikan. Ciri ini kini tidak dapat dilihat oleh pengguna, tetapi AssembleDebug dapat mengaktifkannya dan melihat beberapa elemen antara muka pengguna yang baru. Apabila diaktifkan, ciri ini menambah ikon topi tamat pengajian baru di bahagian bawah skrin yang ditandai dengan lencana "beta" yang menunjukkan bahawa ciri "amalan" akan dikeluarkan pada mulanya dalam bentuk eksperimen. Prompt pop timbul yang berkaitan menunjukkan "Amalan aktiviti yang disesuaikan untuk anda!", Yang bermaksud Google akan menjana disesuaikan

Penyelidik MIT sedang membangunkan Nanda, protokol web yang direka untuk agen AI. Pendek untuk ejen rangkaian dan AI yang terdesentralisasi, Nanda membina Protokol Konteks Model Anthropic (MCP) dengan menambahkan keupayaan Internet, membolehkan AI AGEN

Usaha terbaru Meta: Aplikasi AI untuk menyaingi chatgpt Meta, syarikat induk Facebook, Instagram, WhatsApp, dan Threads, melancarkan aplikasi berkuasa AI yang baru. Aplikasi mandiri ini, Meta AI, bertujuan untuk bersaing secara langsung dengan chatgpt Openai. Tuil

Menavigasi serangan AI Cyber yang semakin meningkat Baru-baru ini, Jason Clinton, Ciso untuk Anthropic, menggariskan risiko yang muncul yang terikat kepada identiti bukan manusia-sebagai komunikasi komunikasi ke mesin, melindungi "identiti" ini menjadi


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

MantisBT
Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

EditPlus versi Cina retak
Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

SublimeText3 versi Inggeris
Disyorkan: Versi Win, menyokong gesaan kod!

SublimeText3 Linux versi baharu
SublimeText3 Linux versi terkini

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma
