Rumah  >  Artikel  >  Peranti teknologi  >  Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya

Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya

PHPz
PHPzke hadapan
2023-11-06 12:13:081123semak imbas

Dengan kelaziman model besar (LLM), menilai sistem AI telah menjadi bahagian penting Apakah kesukaran yang akan dihadapi semasa proses penilaian.

Pada peringkat ini, kebanyakan perbincangan mengenai kesan kecerdasan buatan (AI) terhadap masyarakat boleh dikaitkan dengan sifat tertentu sistem AI, seperti ketulenan, keadilan, potensi penyalahgunaan, dsb. Tetapi masalahnya sekarang ialah ramai penyelidik tidak menyedari sepenuhnya betapa sukarnya untuk membina penilaian model yang mantap dan boleh dipercayai. Banyak kit penilaian sedia ada hari ini terhad dalam prestasi dalam pelbagai aspek.

Pemula AI Anthropic baru-baru ini menyiarkan artikel "Cabaran dalam Menilai Sistem AI" di laman web rasminya. Artikel itu menulis bahawa mereka menghabiskan masa yang lama membina penilaian sistem AI untuk lebih memahami sistem AI.

Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya

Alamat artikel: https://www.anthropic.com/index/evaluating-ai-systems

Artikel ini terutamanya membincangkan aspek-aspek berikut:

  • Penilaian pelbagai pilihan

    🜎 rangka kerja penilaian pihak seperti BIG-bench dan HELM; AI untuk membangunkan kaedah penilaian;
  • Bekerjasama dengan organisasi bukan untung untuk menyemak model untuk bahaya.
  • Cabaran Penilaian Pelbagai Pilihan
  • Penilaian Pelbagai Pilihan mungkin kelihatan mudah, tetapi tidak. Artikel ini membincangkan cabaran model pada penanda aras MMLU (Measuring Multitask Language Understanding) dan BBQ (Bias Benchmark for QA).
  • Set data MMLU

  • MMLU ialah set data penilaian bahasa Inggeris yang mengandungi 57 tugasan soalan dan jawapan aneka pilihan, meliputi matematik, sejarah, undang-undang, dll., dan kini merupakan set data penilaian LLM arus perdana. Lebih tinggi ketepatan, lebih kuat keupayaan model. Walau bagaimanapun, artikel ini mendapati terdapat empat cabaran dalam menggunakan MMLU:

    1 Memandangkan MMLU digunakan secara meluas, keadaan ini tidak dapat dielakkan, dan lebih mudah bagi model untuk memasukkan data MMLU semasa proses latihan. Ia sama seperti apabila pelajar melihat soalan sebelum mengambil ujian - ia menipu.
2 Sensitif kepada perubahan pemformatan yang mudah, seperti menukar pilihan daripada (A) kepada (1), atau menambah ruang tambahan antara pilihan dan jawapan ini boleh menyebabkan ketepatan penilaian berubah-ubah sebanyak kira-kira 5%.

3 Sesetengah pembangun telah menyasarkan cara untuk meningkatkan skor MMLU, seperti pembelajaran beberapa pukulan atau penaakulan rantaian pemikiran. Oleh itu, berhati-hati mesti diambil apabila membandingkan markah MMLU di seluruh makmal.

4.MMLU mungkin tidak disemak pruf dengan teliti - sesetengah penyelidik menemui contoh ralat label atau soalan yang tidak boleh dijawab dalam MMLU.

Disebabkan masalah di atas, adalah perlu untuk membuat pertimbangan dan pemikiran terlebih dahulu semasa menjalankan penilaian yang mudah dan piawai ini. Artikel ini menunjukkan bahawa cabaran yang dihadapi dalam menggunakan MMLU biasanya digunakan untuk penilaian aneka pilihan yang serupa.

BBQ

Penilaian aneka pilihan juga boleh mengukur beberapa bahaya AI. Khususnya, untuk mengukur bahaya ini dalam model mereka sendiri, Claude, penyelidik di Anthropic menggunakan penanda aras BBQ, penanda aras biasa yang digunakan untuk menilai berat sebelah model terhadap populasi. Selepas membandingkan penanda aras ini dengan beberapa penilaian yang serupa, artikel ini yakin bahawa BBQ menyediakan ukuran berat sebelah sosial yang baik. Kerja itu mengambil masa beberapa bulan.

Artikel ini menunjukkan bahawa melaksanakan BBQ adalah lebih sukar daripada yang dijangkakan. Yang pertama ialah pelaksanaan sumber terbuka BBQ yang berfungsi tidak dapat ditemui, dan jurutera terbaik Anthropic mengambil masa seminggu untuk melaksanakan dan menguji penilaian. Tidak seperti dalam MMLU, yang dinilai dari segi ketepatan, skor berat sebelah dalam BBQ memerlukan nuansa dan pengalaman untuk mentakrif, mengira dan mentafsir.

Skor bias BBQ berjulat dari - 1 hingga 1, dengan 1 menunjukkan berat sebelah stereotaip yang ketara, 0 menunjukkan tidak berat sebelah dan -1 menunjukkan berat sebelah kontra-stereotaip yang ketara. Selepas melaksanakan BBQ, kertas ini mendapati beberapa model mempunyai skor bias 0. Keputusan ini juga menjadikan penyelidik optimis, menunjukkan bahawa mereka telah mencapai kemajuan dalam mengurangkan output model berat sebelah.

Rangka Kerja Penilaian Pihak Ketiga

Baru-baru ini, pihak ketiga telah secara aktif membangunkan suite penilaian. Setakat ini, Anthropic telah mengambil bahagian dalam dua daripada projek ini: BIG-bench dan HELM (Penilaian Holistik Model Bahasa) Universiti Stanford. Walaupun penilaian pihak ketiga kelihatan berguna, kedua-dua projek menghadapi cabaran baharu.

BIG-bench

BIG-bench terdiri daripada 204 penilaian, dilengkapkan secara kolaboratif oleh lebih 450 penyelidik, meliputi pelbagai topik daripada sains kepada penaakulan sosial. Anthropic berkata mereka menghadapi beberapa cabaran apabila menggunakan penanda aras ini: Untuk memasang BIG-bench, mereka menghabiskan banyak masa. BIG-bench bukanlah plug-and-play seperti MMLU - ia lebih banyak usaha untuk dilaksanakan daripada menggunakan BBQ.

BIG-bench tidak dapat membuat skala dengan berkesan, dan sangat mencabar untuk menyelesaikan kesemua 204 penilaian. Oleh itu, ia perlu ditulis semula untuk berfungsi dengan baik dengan infrastruktur yang digunakan, yang merupakan beban kerja yang besar.

Selain itu, semasa proses pelaksanaan, artikel ini mendapati terdapat beberapa pepijat dalam penilaian, yang sangat menyusahkan untuk digunakan, jadi penyelidik Anthropic meninggalkannya selepas eksperimen ini.

HELM: menyusun set penilaian dari atas ke bawah

BIG-bench ialah usaha "bottom-up" di mana sesiapa sahaja boleh menyerahkan sebarang tugas, yang kemudiannya tertakluk kepada semakan terhad oleh sekumpulan penganjur pakar . HELM menggunakan pendekatan "atas ke bawah", dengan pakar memutuskan tugasan yang hendak digunakan untuk menilai model.

Secara khusus, HELM menilai model dalam berbilang senario seperti senario inferens dan senario yang mengandungi maklumat palsu, menggunakan penunjuk standard seperti ketepatan, keteguhan dan kesaksamaan. Anthropic menyediakan pembangun HELM dengan akses API untuk menjalankan penanda aras pada model mereka.

Berbanding dengan BIG-bench, HELM mempunyai dua kelebihan: 1) ia tidak memerlukan kerja kejuruteraan yang meluas, 2) pakar boleh dipercayai untuk memilih dan mentafsir penilaian berkualiti tinggi yang khusus.

Namun, HELM juga membawa beberapa cabaran. Kaedah yang berfungsi untuk menilai model lain mungkin tidak semestinya berfungsi untuk model Anthropic, dan sebaliknya. Sebagai contoh, keluarga model Claude Anthropic dilatih untuk mengikuti format teks tertentu yang dipanggil format Manusia/Pembantu. Anthropic mengikuti format khusus ini secara dalaman apabila menilai modelnya. Jika format ini tidak diikuti, Claude kadangkala akan memberikan jawapan yang luar biasa, menjadikan keputusan metrik penilaian standard kurang boleh dipercayai.

Selain itu, HELM mengambil masa yang lama untuk disiapkan, dan menilai model baharu boleh mengambil masa berbulan-bulan dan memerlukan penyelarasan dan komunikasi dengan pihak luar.

Sistem kecerdasan buatan direka untuk interaksi terbuka dan dinamik dengan orang ramai, jadi bagaimana untuk menilai model lebih dekat dengan aplikasi kehidupan sebenar?

Orang ramai untuk ujian A/B

Pada masa ini, bidang ini bergantung terutamanya (tetapi bukan secara eksklusif) pada satu jenis asas penilaian manusia - Ujian A/B pada platform sumber ramai, di mana orang berinteraksi dengan dua Berdialog terbuka dengan model dan pilih sama ada respons lebih membantu atau tidak berbahaya daripada model A atau B, menyusun model mengikut kegunaan atau tidak berbahayanya. Kelebihan kaedah penilaian ini ialah ia sepadan dengan persekitaran dunia sebenar dan membolehkan model yang berbeza disusun kedudukannya.

Walau bagaimanapun, kaedah penilaian ini mempunyai beberapa had dan eksperimen adalah mahal dan memakan masa untuk dijalankan.

Pertama, pendekatan ini memerlukan kerjasama dan pembayaran untuk platform penyumberan ramai pihak ketiga, membina antara muka web tersuai untuk model, mereka bentuk arahan terperinci untuk penguji A/B, menganalisis dan menyimpan data yang terhasil dan menyelesaikan masalah pengambilan pekerja Cabaran etika ditimbulkan oleh pekerja penyumberan ramai.

Dalam kes ujian yang tidak berbahaya, eksperimen juga membawa risiko mendedahkan orang kepada output yang berbahaya. Keputusan penilaian manusia juga boleh berbeza-beza dengan ketara bergantung pada ciri-ciri penilai manusia, termasuk tahap kreativiti, motivasi dan keupayaan penilai manusia untuk mengenal pasti kelemahan yang berpotensi dalam sistem yang diuji.

Selain itu, terdapat ketegangan yang wujud antara berguna dan tidak berbahaya. Sistem boleh dikurangkan bahaya dengan memberikan respons yang tidak membantu seperti "Maaf, saya tidak dapat membantu anda."

Apakah keseimbangan yang betul antara berguna dan tidak berbahaya? Apakah nilai penunjuk yang menunjukkan bahawa model itu cukup berguna dan tidak berbahaya? Banyak soalan memerlukan penyelidik di lapangan melakukan lebih banyak kerja untuk mencari jawapan.

Untuk maklumat lanjut, sila rujuk artikel asal.

Pautan asal: https://www.anthropic.com/index/evaluating-ai-systems

Atas ialah kandungan terperinci Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:jiqizhixin.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam