cari
RumahPeranti teknologiAIModel bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud

Penemuan yang mengejutkan: Model besar mempunyai kelemahan yang serius dalam potongan pengetahuan.


Aplikasi pengetahuan yang fleksibel adalah kunci kepada kebijaksanaan. Otak manusia boleh memproses ilmu dengan cepat seperti menjawab dengan pantas “Berapa banyak perkataan yang terdapat dalam “Silent Night Thoughts””. Jadi, bolehkah operasi serupa dilakukan pada model besar? Adalah diketahui bahawa model besar boleh mula-mula menulis "Silent Night Thoughts" secara senyap melalui Rantaian Pemikiran (CoT), dan kemudian menjawab soalan berdasarkan kandungan bertulis, tetapi ini akan menjadikan teks yang dihasilkan menjadi panjang. Sebaliknya, manusia boleh melengkapkan potongan pengetahuan mudah dalam otak mereka, tanpa menulis langkah perantaraan . Jadi, bolehkah model bahasa yang sangat besar menghasilkan jawapan secara langsung dalam otak tiruannya tanpa perlu menulis titik pengetahuan terlebih dahulu?

Jawapannya tidak! Rajah 1/2/3 menunjukkan banyak contoh balas pada GPT4. Malah klasifikasi yang paling asas (seperti menentukan pariti hari lahir selebriti) dan perbandingan (seperti membandingkan hari lahir dua presiden) perlu melalui Rantaian Pemikiran. Lebih teruk, model besar hampir tidak dapat mengekstrak pengetahuan secara terbalik dari set latihan.

Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud

Kandungan yang perlu ditulis semula ialah: Rajah 1: GPT/4 muncul pada pengetahuan perbandingan Salah, tetapi anda boleh mendapatkan jawapan yang betul melalui rantaian pemikiran

Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud

#🎜🎜🎜 #Perlu ditulis semula Kandungannya ialah: Rajah 2: Contoh ralat carian terbalik pengetahuan GPT4 : Walaupun GPT4 boleh menjawab dengan betul "Bilakah hari lahir seseorang dan "Adakah nombor tertentu adalah nombor genap?", apabila menggabungkan kedua-duanya, nombor itu ketepatan hanya 50% tanpa Rantaian Pemikiran (CoT). Apabila membandingkan hari lahir selebriti dari 1900-1910, persembahan itu juga hampir dengan tekaan buta. Penyelidikan terbaru oleh Zhu Zeyuan (MetaAI) dan Li Yuanzhi (MBZUAI) " Fizik Model Bahasa Bahagian 3.2: Potongan Pengetahuan (Manipulasi)" memfokuskan kepada isu di atas.

Sila klik pautan berikut untuk melihat kertas: https://arxiv.org/abs/2309.14402Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud#🎜🎜 soalan pertama, masalah seperti Rajah 1/2/3, adakah ingatan GPT4 tentang hari lahir orang tidak cukup tepat (nisbah mampatan tidak mencukupi, kehilangan latihan tidak cukup rendah), atau adakah ia tidak mendalami pemahamannya pariti melalui penalaan halus? Adakah mungkin untuk memperhalusi GPT4 supaya ia boleh menggabungkan pengetahuan sedia ada dalam model untuk menjana pengetahuan baharu seperti "pariti hari jadi" dan terus menjawab soalan berkaitan tanpa bergantung pada CoT? Memandangkan kami tidak mengetahui set data latihan GPT4, penalaan halus tidak boleh dilakukan. Oleh itu, penulis mencadangkan untuk menggunakan set latihan yang boleh dikawal untuk mengkaji lebih lanjut keupayaan "pengurangan pengetahuan" model bahasa. #🎜🎜 ##### 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 #Rajah 4: Model pra-latihan seperti GPT4, kerana data Internet yang tidak terkawal, sukar untuk menjadi data Internet. sukar menjadi sukar Tentukan sama ada situasi B/C/D berlaku Satu set data biografi peribadi. Setiap biografi termasuk nama orang itu serta enam sifat: tarikh lahir, tempat lahir, jurusan kolej, nama kolej, tempat bekerja dan tempat kerja. Contohnya:

 Anya Briar Forger berasal dari Princeton, NJ. Dia mendedikasikan pengajiannya untuk 🎜🎜🎜🎜🎜🎜 . Dia memperoleh pengalaman kerja di
Menlo Park, CA
Dia mengembangkan kerjayanya di Meta Platforms
Dia datang ke dunia ini pada
2 Oktober 1996#. 🎜🎜#. Dia mengikuti kursus lanjutan di
MIT.
 
Penulis memastikan kepelbagaian entri biografi untuk membantu model mengakses pengetahuan dengan lebih baik. Selepas pralatihan, model boleh menjawab soalan pengekstrakan pengetahuan dengan tepat melalui penalaan halus, seperti "Bilakah hari lahir Anya?" tala dan cuba Biarkan model mempelajari masalah pengurangan pengetahuan, seperti pengelasan/perbandingan/tambah dan penolakan pengetahuan. Artikel itu mendapati model bahasa semula jadi mempunyai keupayaan yang sangat terhad dalam pengurangan pengetahuan, dan sukar untuk menjana pengetahuan baharu melalui penalaan halus, Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud walaupun ia hanyalah transformasi/gabungan mudah pengetahuan yang telah dikuasai oleh model.

. eksperimen

Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud

Sebagai contoh Rajah 5, penulis mendapati bahawa walaupun model itu boleh menjawab dengan tepat hari lahir setiap orang selepas pralatihan (kadar ketepatan hampir 100%), ia perlu diperhalusi untuk menjawab "Adakah bulan kelahiran xxx adalah nombor genap?" dan mencapai ketepatan 75 % - jangan lupa tekaan buta mempunyai kadar ketepatan 50% - memerlukan sekurang-kurangnya 10,000 sampel penalaan halus. Sebagai perbandingan, jika model boleh melengkapkan gabungan pengetahuan "hari jadi" dan "pariti" dengan betul, maka menurut teori pembelajaran mesin tradisional, model hanya perlu belajar untuk mengklasifikasikan 12 bulan, dan biasanya kira-kira 100 sampel sudah mencukupi! Begitu juga, walaupun model telah dilatih terlebih dahulu, ia boleh menjawab dengan tepat jurusan semua orang (sebanyak 100 jurusan berbeza), tetapi walaupun menggunakan 50,000 sampel penalaan halus, biarkan model membandingkan "Mana satu yang lebih baik, jurusan Anya atau Sabrina's major" ", kadar ketepatan hanya 53.9%, yang hampir bersamaan dengan meneka Walau bagaimanapun, apabila kita menggunakan model penalaan halus CoT untuk mempelajari ayat "Bulan kelahiran Anya ialah Oktober, jadi ia adalah nombor genap". model menentukan bulan kelahiran pada set ujian Ketepatan pariti bulanan bertambah baik dengan ketara (lihat lajur "CoT untuk ujian" dalam Rajah 5) Pengarang juga cuba mencampurkan jawapan CoT dan bukan CoT dalam latihan penalaan halus. data, dan mendapati model menunjukkan prestasi yang lebih baik pada set ujian apabila tidak menggunakan CoT Kadar ketepatan masih sangat rendah (lihat lajur "ujian tanpa CoT" dalam Rajah 5). Ini menunjukkan bahawa walaupun data penalaan halus CoT yang mencukupi ditambah, model masih tidak boleh belajar untuk "berfikir di dalam kepala" dan terus melaporkan jawapannya

Hasil ini menunjukkan bahawa

Untuk model bahasa, amat sukar untuk melaksanakan pengetahuan mudah operasi! Model itu mesti menulis titik pengetahuan dan kemudian melakukan pengiraan Ia tidak boleh dikendalikan secara langsung dalam otak seperti manusia Walaupun selepas penalaan yang mencukupi, ia tidak akan membantu.

Cabaran dalam Pencarian Pengetahuan Songsang

Penyelidikan juga mendapati model bahasa semula jadi tidak boleh menggunakan pengetahuan yang dipelajari melalui carian terbalik. Walaupun ia boleh menjawab semua maklumat tentang seseorang, ia tidak dapat menentukan nama orang itu berdasarkan maklumat ini Pengarang bereksperimen dengan GPT3.5/4 dan mendapati mereka berprestasi lemah dalam pengekstrakan pengetahuan terbalik (lihat Rajah 6). Walau bagaimanapun, kerana kami tidak dapat menentukan set data latihan GPT3.5/4, ini tidak membuktikan bahawa semua model bahasa mempunyai masalah ini

Rajah 6: Perbandingan carian pengetahuan hadapan/balik dalam GPT3.5/ 4 . Kerja "Kutukan Terbalik" kami yang dilaporkan sebelum ini (arxiv 2309.12288) juga memerhati fenomena ini pada model besar sedia ada

Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujudPengarang menggunakan set data biografi yang disebutkan di atas untuk menjalankan kajian yang lebih mendalam tentang ujian terkawal keupayaan carian pengetahuan terbalik model. Memandangkan nama semua biografi berada di awal perenggan, penulis mereka 10 soalan pengekstrakan maklumat terbalik, seperti:

Adakah anda tahu nama orang yang dilahirkan di Princeton, New Jersey pada 2 Oktober 1996? "Sila beritahu saya nama orang yang belajar Komunikasi di MIT, dilahirkan pada 2 Oktober 1996 di Princeton, NJ, dan bekerja di Meta Platforms di Menlo Park, CA?"

Perlu teruskan Kandungan yang ditulis semula ialah: Rajah 7: Percubaan terkawal pada set data biografi selebriti

Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujudPengarang mengesahkan bahawa walaupun model itu mencapai pemampatan pengetahuan tanpa kerugian dan peningkatan pengetahuan yang mencukupi, dan boleh mengekstrak pengetahuan ini hampir 100% dengan betul, dalam After fine -penalaan, model masih tidak dapat melakukan carian terbalik pengetahuan, dan ketepatannya hampir sifar (lihat Rajah 7). Walau bagaimanapun, sebaik sahaja pengetahuan songsang muncul terus dalam set pra-latihan, ketepatan carian terbalik serta-merta melonjak.

Ringkasnya, hanya apabila pengetahuan songsang dimasukkan secara langsung dalam data pralatihan, model boleh menjawab soalan songsang melalui penalaan halus - tetapi ini sebenarnya menipu, kerana jika pengetahuan itu telah terbalik, ia tidak akan " carian ilmu terbalik” lagi. Jika set pra-latihan hanya mengandungi pengetahuan ke hadapan, model tidak dapat menguasai kebolehan menjawab soalan secara terbalik melalui penalaan halus. Oleh itu, menggunakan model bahasa untuk pengindeksan pengetahuan (pangkalan data pengetahuan) pada masa ini kelihatan mustahil. Selain itu, sesetengah orang mungkin berpendapat bahawa "carian pengetahuan terbalik" di atas gagal kerana model bahasa autoregresif (seperti GPT) adalah sehala. Walau bagaimanapun, pada hakikatnya, model bahasa dua hala (seperti BERT) menunjukkan prestasi yang lebih teruk pada pengekstrakan pengetahuan malah gagal pada pengekstrakan hadapan. Bagi pembaca yang berminat, boleh rujuk maklumat terperinci dalam kertas

Atas ialah kandungan terperinci Model bahasa mempunyai kelemahan utama, dan pengurangan pengetahuan ternyata menjadi masalah yang telah lama wujud. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Artikel ini dikembalikan pada:机器之心. Jika ada pelanggaran, sila hubungi admin@php.cn Padam
10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajariApr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let ’

Memasak Inovasi: Bagaimana Kecerdasan Buatan Mengubah Perkhidmatan MakananMemasak Inovasi: Bagaimana Kecerdasan Buatan Mengubah Perkhidmatan MakananApr 12, 2025 pm 12:09 PM

AI Menambah Penyediaan Makanan Walaupun masih dalam penggunaan baru, sistem AI semakin digunakan dalam penyediaan makanan. Robot yang didorong oleh AI digunakan di dapur untuk mengautomasikan tugas penyediaan makanan, seperti membuang burger, membuat pizza, atau memasang SA

Panduan Komprehensif mengenai Python Namespaces & Variable ScopesPanduan Komprehensif mengenai Python Namespaces & Variable ScopesApr 12, 2025 pm 12:00 PM

Pengenalan Memahami ruang nama, skop, dan tingkah laku pembolehubah dalam fungsi Python adalah penting untuk menulis dengan cekap dan mengelakkan kesilapan runtime atau pengecualian. Dalam artikel ini, kami akan menyelidiki pelbagai ASP

Panduan Komprehensif untuk Model Bahasa Visi (VLMS)Panduan Komprehensif untuk Model Bahasa Visi (VLMS)Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

MediaTek meningkatkan barisan premium dengan Kompanio Ultra dan Dimensity 9400MediaTek meningkatkan barisan premium dengan Kompanio Ultra dan Dimensity 9400Apr 12, 2025 am 11:52 AM

Meneruskan irama produk, bulan ini MediaTek telah membuat satu siri pengumuman, termasuk Kompanio Ultra dan Dimensity 9400 yang baru. Produk ini mengisi bahagian perniagaan MediaTek yang lebih tradisional, termasuk cip untuk telefon pintar

Minggu ini di AI: Walmart menetapkan trend fesyen sebelum mereka pernah berlakuMinggu ini di AI: Walmart menetapkan trend fesyen sebelum mereka pernah berlakuApr 12, 2025 am 11:51 AM

#1 Google melancarkan Agent2Agent Cerita: Ia Isnin pagi. Sebagai perekrut berkuasa AI, anda bekerja lebih pintar, tidak lebih sukar. Anda log masuk ke papan pemuka syarikat anda di telefon anda. Ia memberitahu anda tiga peranan kritikal telah diperolehi, dijadualkan, dan dijadualkan untuk

AI Generatif Bertemu PsychobabbleAI Generatif Bertemu PsychobabbleApr 12, 2025 am 11:50 AM

Saya akan meneka bahawa anda mesti. Kita semua seolah -olah tahu bahawa psychobabble terdiri daripada pelbagai perbualan yang menggabungkan pelbagai terminologi psikologi dan sering akhirnya menjadi tidak dapat difahami atau sepenuhnya tidak masuk akal. Semua yang anda perlu lakukan untuk memuntahkan fo

Prototaip: saintis menjadikan kertas menjadi plastikPrototaip: saintis menjadikan kertas menjadi plastikApr 12, 2025 am 11:49 AM

Hanya 9.5% plastik yang dihasilkan pada tahun 2022 dibuat daripada bahan kitar semula, menurut satu kajian baru yang diterbitkan minggu ini. Sementara itu, plastik terus menumpuk di tapak pelupusan sampah -dan ekosistem -sekitar dunia. Tetapi bantuan sedang dalam perjalanan. Pasukan Engin

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

Pelayar Peperiksaan Selamat

Pelayar Peperiksaan Selamat

Pelayar Peperiksaan Selamat ialah persekitaran pelayar selamat untuk mengambil peperiksaan dalam talian dengan selamat. Perisian ini menukar mana-mana komputer menjadi stesen kerja yang selamat. Ia mengawal akses kepada mana-mana utiliti dan menghalang pelajar daripada menggunakan sumber yang tidak dibenarkan.

EditPlus versi Cina retak

EditPlus versi Cina retak

Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Versi Mac WebStorm

Versi Mac WebStorm

Alat pembangunan JavaScript yang berguna