cari
RumahPeranti teknologiAIAdakah model bahasa besar salah untuk pengekodan?

Model pembelajaran pengukuhan mengalahkan AI generatif apabila matlamatnya ialah ketepatan, ketekalan, penguasaan permainan atau mencari satu jawapan yang betul.

Model bahasa berskala besar, seperti GPT-4, adalah luar biasa kerana ia boleh menghasilkan teks berkualiti tinggi, licin dan semula jadi yang sangat meyakinkan. Malangnya, begitu juga gembar-gembur: Penyelidik Microsoft tanpa nafas menggambarkan model OpenAI GPT-4 yang dibiayai oleh Microsoft sebagai menunjukkan "percikan kecerdasan am buatan."

Sudah tentu, melainkan Microsoft merujuk kepada kecenderungan untuk berhalusinasi, teks ralat yang dijana mestilah salah. GPT tidak pandai bermain permainan seperti catur dan Go, ia tidak mahir dalam matematik, dan kod yang ditulisnya mungkin mempunyai ralat dan kelemahan yang halus.

Ini tidak bermakna model bahasa besar semuanya gembar-gembur. Kami memerlukan beberapa sudut baharu untuk membincangkan kecerdasan buatan generatif (GenAI) tanpa terlalu membesar-besarkan perbezaannya daripada teknologi lain.

Seperti yang diperincikan dalam artikel IEEESpectrum, sesetengah pakar, seperti Ilya Sutskever OpenAI, percaya bahawa menambah pembelajaran pengukuhan dengan maklum balas manusia boleh menghapuskan ilusi LLM. Tetapi yang lain, seperti Yann LeCun dan Geoff Hinton Meta (baru-baru ini bersara daripada Google), berpendapat lebih banyak kelemahan asas dalam model bahasa besar sedang berfungsi. Kedua-duanya percaya bahawa model bahasa besar kekurangan pengetahuan bukan linguistik yang penting untuk memahami realiti asas yang diterangkan oleh bahasa.

Ketua Pegawai Eksekutif Diffblue Mathew Lodge menunjukkan dalam temu bual bahawa terdapat penyelesaian yang lebih baik. Dia berkata, "Model pembelajaran pengukuhan yang kecil, pantas dan murah untuk dijalankan dengan mudah boleh mengalahkan model bahasa besar dengan ratusan bilion parameter dalam tugasan daripada bermain permainan hingga menulis kod."

Adakah kita mencari emas AI di tempat yang salah?

Apa yang Lodge katakan ialah AI generatif pasti mempunyai kegunaannya, tetapi mungkin kita cuba untuk Ia memaksa pengenalan kawasan pembelajaran pengukuhan yang tidak sesuai dengannya. Ambil permainan sebagai contoh.

Levy Rozman, seorang grandmaster catur, menyiarkan video dirinya bermain menentang ChatGPT (kepintaran buatan berasaskan sembang). Model itu membuat beberapa siri langkah yang tidak masuk akal dan haram, termasuk menangkap karyanya sendiri. Perisian catur sumber terbuka terbaik (Stockfish, yang tidak menggunakan rangkaian saraf sama sekali) membolehkan ChatGPT mengalahkannya dalam masa kurang daripada 10 pergerakan kerana model bahasa besar tidak dapat mencari pergerakan undang-undang. Ini membuktikan bahawa model bahasa yang besar kurang daripada gembar-gembur kecerdasan buatan umum, dan ini bukan contoh terpencil.

Disebabkan algoritma pembelajaran pengukuhannya, Google AlphaGo ialah kecerdasan buatan Go yang berprestasi terbaik pada masa ini. Pembelajaran pengukuhan berfungsi dengan menjana penyelesaian yang berbeza untuk masalah, mencubanya, menggunakan keputusan untuk menambah baik cadangan seterusnya, dan kemudian mengulangi proses beribu kali untuk mencari hasil yang terbaik.

Dalam kes AlphaGo, AI ​​mencuba pergerakan yang berbeza dan meramalkan sama ada ini adalah langkah yang baik dan sama ada ia berkemungkinan memenangi permainan dari kedudukan ini. Ia menggunakan maklum balas untuk "menjejaki" urutan pergerakan yang menjanjikan dan menjana pergerakan lain yang mungkin. Kesannya ialah mencari pergerakan yang mungkin.

Proses ini dipanggil carian probabilistik. Walaupun terdapat banyak pergerakan, anda tidak perlu mencuba semuanya, tetapi anda boleh dengan sabar mencari kawasan yang anda mungkin dapati langkah terbaik. Ini berfungsi hebat untuk permainan. AlphaGo telah mengalahkan ahli Go pada masa lalu. AlphaGo tidak sempurna, tetapi pada masa ini ia berprestasi lebih baik daripada model bahasa berskala besar terbaik yang tersedia hari ini.

Kebarangkalian vs. Ketepatan

Penyokong percaya bahawa walaupun terdapat bukti bahawa model bahasa besar jauh ketinggalan berbanding jenis AI lain, Mereka juga menjadi lebih baik secara progresif. Walau bagaimanapun, Lodge menegaskan bahawa kita perlu memahami mengapa mereka melakukan tugasan ini dengan lebih baik jika kita mahu menerima idea ini. Sebab kesukaran dalam isu ini, lanjutnya, ialah tiada siapa yang boleh meramalkan dengan tepat bagaimana GPT-4 akan bertindak balas terhadap isyarat tertentu. Corak ini di luar penjelasan manusia. Ini, dia percaya, adalah "sebab mengapa 'kejuruteraan tepat pada masanya' tidak wujud." mereka.

Boleh dikatakan hujah yang terbaik ialah induksi. GPT-4 adalah lebih baik daripada GPT-3 pada beberapa tugas bahasa kerana ia lebih besar. Oleh itu, model yang lebih besar adalah lebih baik.

Lodge berpendapat bahawa GPT-4 masih perlu mengatasi cabaran yang dihadapi oleh GPT-3, jadi ada masalah. Salah satu daripadanya ialah matematik; manakala GPT-4 lebih baik daripada GPT-3 pada operasi tambah, ia masih mempunyai kesesakan pada pendaraban dan operasi matematik lain.

Meningkatkan saiz model bahasa tidak menyelesaikan masalah ini secara ajaib, dan menurut OpenAI model yang lebih besar bukanlah penyelesaiannya. Sebabnya terletak pada sifat asas model bahasa yang besar, seperti yang ditunjukkan oleh forum OpenAI: “Model bahasa yang besar bersifat probabilistik dan beroperasi dengan menjana kemungkinan keluaran berdasarkan corak yang mereka perhatikan dalam data latihan dalam Matematik dan fizik , kemungkinan untuk mencari satu jawapan yang betul adalah tipis.”

Dalam proses kecerdasan buatan, kaedah yang didorong oleh pembelajaran pengukuhan dapat menghasilkan keputusan yang lebih tepat kerana ia merupakan proses mengejar sesuatu matlamat. Pembelajaran pengukuhan secara berulang mencari jawapan terbaik yang paling hampir dengan matlamat untuk mencapai matlamat yang diinginkan. Lodge menyatakan bahawa kursus model bahasa yang besar "tidak direka untuk mengulangi atau mencari matlamat. Mereka direka untuk memberikan jawapan yang 'cukup baik' satu atau beberapa kali." jawapan one-shot" ialah jawapan pertama yang dihasilkan oleh model, yang diperoleh dengan meramalkan urutan perkataan dalam gesaan. "Pembelajaran beberapa pukulan" melibatkan penyediaan sampel atau petunjuk tambahan kepada model untuk membantunya menjana ramalan yang lebih baik. Model bahasa yang besar sering juga menambahkan beberapa kerawak (iaitu, ia "rawak") untuk meningkatkan kemungkinan jawapan yang lebih baik, jadi mereka akan memberikan jawapan yang berbeza kepada soalan yang sama.

Bukannya dunia model bahasa yang besar mengabaikan pembelajaran pengukuhan. GPT-4 menggabungkan "pembelajaran pengukuhan dengan maklum balas manusia" (RLHF). Model teras yang dilatih oleh pengendali manusia mengutamakan jawapan tertentu, tetapi ini secara asasnya tidak mengubah jawapan model yang dihasilkan pada mulanya. Lodge menyatakan bahawa model bahasa yang besar mungkin menyediakan pilihan berikut untuk mengisi kekosongan dalam ayat "Wayne Gretzky suka ais..."

1. Wayne Gretzky suka aiskrim.

2. Wayne Gretzky suka hoki.

3. Wayne Gretzky suka memancing ais.

4. Wayne Gretzky suka meluncur.

5. Wayne Gretzky suka wain ais.

Pengendali manusia menilai jawapan mungkin telah membuat kesimpulan bahawa pemain hoki lagenda Kanada itu lebih gemar bermain hoki ais dan meluncur, walaupun tarikan ais krim yang luas. Kedudukan manusia dan lebih banyak respons bertulis manusia digunakan untuk melatih model. Ambil perhatian bahawa GPT-4 tidak berpura-pura mengetahui dengan tepat pilihan Wayne Gretzky, hanya untuk melakukan perkara yang terbaik apabila digesa.

Akhir sekali, model bahasa besar tidak direka bentuk untuk menjadi sangat tepat atau konsisten. Terdapat pertukaran antara ketepatan dan tingkah laku deterministik sebagai pertukaran untuk umum. Bagi Lodge, semua ini bermakna pembelajaran pengukuhan mengalahkan AI generatif apabila menggunakan AI pada skala.

Menerapkan Pembelajaran Pengukuhan pada Perisian

Bagaimana dengan pembangunan perisian Semasa saya menulis, GenAI sudah ada untuk mereka yang menggunakan alatan seperti GitHubCopilot atau AmazonCodeWhisperer? Peluang disediakan untuk meningkatkan produktiviti pembangun. Ini bukan spekulasi - ia telah berlaku. Alat ini boleh meramalkan kod yang mungkin muncul seterusnya, berdasarkan kod sebelum dan selepas titik sisipan dalam persekitaran pembangunan bersepadu.

Malah, seperti yang dikatakan oleh David Ramel dari Visual Studio Magazine, versi terkini Copilot sudah menjana 61% kod Java. Bagi mereka yang bimbang bahawa ini akan mengurangkan kerja pembangun perisian, ingat bahawa alat ini memerlukan pengawasan manusia yang teliti untuk menyemak penyiapan dan mengeditnya supaya kod disusun dan berjalan dengan betul. Autolengkap telah menjadi ruji IDE sejak zaman awal mereka, dan Copilot dan penjana kod lain menjadikannya lebih berguna. Pengekodan autonomi berskala besar adalah berbeza, malah 61% daripada kod Java perlu ditulis.

Walau bagaimanapun, pembelajaran pengukuhan membolehkan pengekodan autonomi yang tepat pada skala, kata Lodge. Sudah tentu, dia mempunyai kepentingan untuk menyatakan perkara ini: Pada 2019, syarikatnya Diffblue mengeluarkan Cover, alat menulis ujian unit komersial berdasarkan pembelajaran pengukuhan. Cover menulis suite ujian unit yang lengkap tanpa campur tangan manusia, yang memungkinkan untuk mengautomasikan tugasan yang kompleks dan mudah ralat pada skala.

Adakah Lodge berat sebelah? Beliau mempunyai banyak pengalaman yang membenarkan kepercayaannya bahawa pembelajaran pengukuhan mengatasi GenAI dalam pembangunan perisian. Hari ini, Diffblue menggunakan pembelajaran pengukuhan untuk mencari ruang semua kaedah ujian yang mungkin, menulis kod ujian secara automatik untuk setiap kaedah dan memilih ujian terbaik antara ujian yang ditulis. Fungsi ganjaran pembelajaran pengukuhan adalah berdasarkan pelbagai kriteria, termasuk liputan ujian dan estetika, salah satunya termasuk pematuhan kepada gaya pengekodan tulisan manusia. Alat ini mencipta ujian untuk setiap kaedah dalam purata satu saat.

Lodge percaya bahawa jika matlamatnya adalah untuk menulis 10,000 unit ujian secara automatik untuk program yang tiada siapa faham, maka pembelajaran pengukuhan adalah satu-satunya penyelesaian sebenar. "Model bahasa yang besar tidak boleh bersaing; manusia tidak mempunyai cara untuk mengawasi mereka dengan berkesan dan membetulkan kod mereka pada skala ini. Membuat model yang lebih besar dan lebih kompleks tidak menyelesaikan masalah ini." Perkara yang paling berkuasa tentang model bahasa besar ialah ia adalah pemproses bahasa tujuan umum. Mereka boleh melaksanakan tugas bahasa yang mereka belum dilatih secara eksplisit. Ini bermakna mereka boleh melakukan kerja yang hebat dalam penjanaan kandungan (copywriting) dan banyak perkara lain. Lodge menekankan: "Tetapi ini tidak menjadikan model bahasa besar sebagai pengganti model kecerdasan buatan, yang selalunya berdasarkan pembelajaran pengukuhan, yang lebih tepat, lebih konsisten dan boleh digunakan pada skala

Atas ialah kandungan terperinci Adakah model bahasa besar salah untuk pengekodan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Artikel ini dikembalikan pada:51CTO.COM. Jika ada pelanggaran, sila hubungi admin@php.cn Padam
Carta 10 kuasa bi yang paling banyak digunakan - Analytics VidhyaCarta 10 kuasa bi yang paling banyak digunakan - Analytics VidhyaApr 16, 2025 pm 12:05 PM

Memanfaatkan kekuatan visualisasi data dengan carta Microsoft Power BI Dalam dunia yang didorong oleh data hari ini, dengan berkesan menyampaikan maklumat yang rumit kepada penonton bukan teknikal adalah penting. Visualisasi data jambatan jurang ini, mengubah data mentah i

Sistem Pakar di AISistem Pakar di AIApr 16, 2025 pm 12:00 PM

Sistem Pakar: menyelam yang mendalam ke dalam kuasa membuat keputusan AI Bayangkan mempunyai akses kepada nasihat pakar mengenai apa -apa, dari diagnosis perubatan kepada perancangan kewangan. Itulah kuasa sistem pakar dalam kecerdasan buatan. Sistem ini meniru pro

Tiga coder getaran terbaik memecahkan revolusi AI ini dalam kodTiga coder getaran terbaik memecahkan revolusi AI ini dalam kodApr 16, 2025 am 11:58 AM

Pertama sekali, jelas bahawa ini berlaku dengan cepat. Pelbagai syarikat bercakap mengenai perkadaran kod mereka yang kini ditulis oleh AI, dan ini semakin meningkat pada klip pesat. Terdapat banyak anjakan pekerjaan

Runway AI's Gen-4: Bagaimanakah montaj AI boleh melampaui kebodohanRunway AI's Gen-4: Bagaimanakah montaj AI boleh melampaui kebodohanApr 16, 2025 am 11:45 AM

Industri filem, bersama semua sektor kreatif, dari pemasaran digital ke media sosial, berdiri di persimpangan teknologi. Sebagai kecerdasan buatan mula membentuk semula setiap aspek bercerita visual dan mengubah landskap hiburan

Bagaimana untuk mendaftar selama 5 hari kursus percuma ISRO AI? - Analytics VidhyaBagaimana untuk mendaftar selama 5 hari kursus percuma ISRO AI? - Analytics VidhyaApr 16, 2025 am 11:43 AM

Kursus Online AI/ML percuma ISRO: Gerbang ke Inovasi Teknologi Geospatial Pertubuhan Penyelidikan Angkasa India (ISRO), melalui Institut Pengesan Jauh India (IIRS), menawarkan peluang yang hebat untuk pelajar dan profesional

Algoritma Carian Tempatan di AIAlgoritma Carian Tempatan di AIApr 16, 2025 am 11:40 AM

Algoritma Carian Tempatan: Panduan Komprehensif Merancang acara berskala besar memerlukan pengagihan beban kerja yang cekap. Apabila pendekatan tradisional gagal, algoritma carian tempatan menawarkan penyelesaian yang kuat. Artikel ini meneroka pendakian bukit dan simul

Terbuka beralih fokus dengan GPT-4.1, mengutamakan pengekodan dan kecekapan kosTerbuka beralih fokus dengan GPT-4.1, mengutamakan pengekodan dan kecekapan kosApr 16, 2025 am 11:37 AM

Pelepasan ini termasuk tiga model yang berbeza, GPT-4.1, GPT-4.1 Mini dan GPT-4.1 Nano, menandakan langkah ke arah pengoptimuman khusus tugas dalam landskap model bahasa yang besar. Model-model ini tidak segera menggantikan antara muka yang dihadapi pengguna seperti

Prompt: CHATGPT menjana pasport palsuPrompt: CHATGPT menjana pasport palsuApr 16, 2025 am 11:35 AM

Gergasi Chip Nvidia berkata pada hari Isnin ia akan memulakan pembuatan superkomputer AI - mesin yang boleh memproses sejumlah besar data dan menjalankan algoritma kompleks - sepenuhnya dalam A.S. untuk kali pertama. Pengumuman itu datang selepas Presiden Trump Si

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Arahan sembang dan cara menggunakannya
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

Muat turun versi mac editor Atom

Muat turun versi mac editor Atom

Editor sumber terbuka yang paling popular

Pelayar Peperiksaan Selamat

Pelayar Peperiksaan Selamat

Pelayar Peperiksaan Selamat ialah persekitaran pelayar selamat untuk mengambil peperiksaan dalam talian dengan selamat. Perisian ini menukar mana-mana komputer menjadi stesen kerja yang selamat. Ia mengawal akses kepada mana-mana utiliti dan menghalang pelajar daripada menggunakan sumber yang tidak dibenarkan.

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

SublimeText3 versi Inggeris

SublimeText3 versi Inggeris

Disyorkan: Versi Win, menyokong gesaan kod!

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma