


Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya
Dengan kelaziman model besar (LLM), menilai sistem AI telah menjadi bahagian penting Apakah kesukaran yang akan dihadapi semasa proses penilaian.
Pada peringkat ini, kebanyakan perbincangan mengenai kesan kecerdasan buatan (AI) terhadap masyarakat boleh dikaitkan dengan sifat tertentu sistem AI, seperti ketulenan, keadilan, potensi penyalahgunaan, dsb. Tetapi masalahnya sekarang ialah ramai penyelidik tidak menyedari sepenuhnya betapa sukarnya untuk membina penilaian model yang mantap dan boleh dipercayai. Banyak kit penilaian sedia ada hari ini terhad dalam prestasi dalam pelbagai aspek.
Pemula AI Anthropic baru-baru ini menyiarkan artikel "Cabaran dalam Menilai Sistem AI" di laman web rasminya. Artikel itu menulis bahawa mereka menghabiskan masa yang lama membina penilaian sistem AI untuk lebih memahami sistem AI.
Alamat artikel: https://www.anthropic.com/index/evaluating-ai-systems
Artikel ini terutamanya membincangkan aspek-aspek berikut:
-
Penilaian pelbagai pilihan
🜎 rangka kerja penilaian pihak seperti BIG-bench dan HELM; AI untuk membangunkan kaedah penilaian; - Bekerjasama dengan organisasi bukan untung untuk menyemak model untuk bahaya.
- Cabaran Penilaian Pelbagai Pilihan
- Penilaian Pelbagai Pilihan mungkin kelihatan mudah, tetapi tidak. Artikel ini membincangkan cabaran model pada penanda aras MMLU (Measuring Multitask Language Understanding) dan BBQ (Bias Benchmark for QA).
Set data MMLU
- MMLU ialah set data penilaian bahasa Inggeris yang mengandungi 57 tugasan soalan dan jawapan aneka pilihan, meliputi matematik, sejarah, undang-undang, dll., dan kini merupakan set data penilaian LLM arus perdana. Lebih tinggi ketepatan, lebih kuat keupayaan model. Walau bagaimanapun, artikel ini mendapati terdapat empat cabaran dalam menggunakan MMLU: 1 Memandangkan MMLU digunakan secara meluas, keadaan ini tidak dapat dielakkan, dan lebih mudah bagi model untuk memasukkan data MMLU semasa proses latihan. Ia sama seperti apabila pelajar melihat soalan sebelum mengambil ujian - ia menipu.
3 Sesetengah pembangun telah menyasarkan cara untuk meningkatkan skor MMLU, seperti pembelajaran beberapa pukulan atau penaakulan rantaian pemikiran. Oleh itu, berhati-hati mesti diambil apabila membandingkan markah MMLU di seluruh makmal.
4.MMLU mungkin tidak disemak pruf dengan teliti - sesetengah penyelidik menemui contoh ralat label atau soalan yang tidak boleh dijawab dalam MMLU. Disebabkan masalah di atas, adalah perlu untuk membuat pertimbangan dan pemikiran terlebih dahulu semasa menjalankan penilaian yang mudah dan piawai ini. Artikel ini menunjukkan bahawa cabaran yang dihadapi dalam menggunakan MMLU biasanya digunakan untuk penilaian aneka pilihan yang serupa.BBQ
Penilaian aneka pilihan juga boleh mengukur beberapa bahaya AI. Khususnya, untuk mengukur bahaya ini dalam model mereka sendiri, Claude, penyelidik di Anthropic menggunakan penanda aras BBQ, penanda aras biasa yang digunakan untuk menilai berat sebelah model terhadap populasi. Selepas membandingkan penanda aras ini dengan beberapa penilaian yang serupa, artikel ini yakin bahawa BBQ menyediakan ukuran berat sebelah sosial yang baik. Kerja itu mengambil masa beberapa bulan. Artikel ini menunjukkan bahawa melaksanakan BBQ adalah lebih sukar daripada yang dijangkakan. Yang pertama ialah pelaksanaan sumber terbuka BBQ yang berfungsi tidak dapat ditemui, dan jurutera terbaik Anthropic mengambil masa seminggu untuk melaksanakan dan menguji penilaian. Tidak seperti dalam MMLU, yang dinilai dari segi ketepatan, skor berat sebelah dalam BBQ memerlukan nuansa dan pengalaman untuk mentakrif, mengira dan mentafsir. Skor bias BBQ berjulat dari - 1 hingga 1, dengan 1 menunjukkan berat sebelah stereotaip yang ketara, 0 menunjukkan tidak berat sebelah dan -1 menunjukkan berat sebelah kontra-stereotaip yang ketara. Selepas melaksanakan BBQ, kertas ini mendapati beberapa model mempunyai skor bias 0. Keputusan ini juga menjadikan penyelidik optimis, menunjukkan bahawa mereka telah mencapai kemajuan dalam mengurangkan output model berat sebelah.Rangka Kerja Penilaian Pihak Ketiga
Baru-baru ini, pihak ketiga telah secara aktif membangunkan suite penilaian. Setakat ini, Anthropic telah mengambil bahagian dalam dua daripada projek ini: BIG-bench dan HELM (Penilaian Holistik Model Bahasa) Universiti Stanford. Walaupun penilaian pihak ketiga kelihatan berguna, kedua-dua projek menghadapi cabaran baharu.BIG-bench
BIG-bench terdiri daripada 204 penilaian, dilengkapkan secara kolaboratif oleh lebih 450 penyelidik, meliputi pelbagai topik daripada sains kepada penaakulan sosial. Anthropic berkata mereka menghadapi beberapa cabaran apabila menggunakan penanda aras ini: Untuk memasang BIG-bench, mereka menghabiskan banyak masa. BIG-bench bukanlah plug-and-play seperti MMLU - ia lebih banyak usaha untuk dilaksanakan daripada menggunakan BBQ.BIG-bench tidak dapat membuat skala dengan berkesan, dan sangat mencabar untuk menyelesaikan kesemua 204 penilaian. Oleh itu, ia perlu ditulis semula untuk berfungsi dengan baik dengan infrastruktur yang digunakan, yang merupakan beban kerja yang besar.
Selain itu, semasa proses pelaksanaan, artikel ini mendapati terdapat beberapa pepijat dalam penilaian, yang sangat menyusahkan untuk digunakan, jadi penyelidik Anthropic meninggalkannya selepas eksperimen ini.
HELM: menyusun set penilaian dari atas ke bawah
BIG-bench ialah usaha "bottom-up" di mana sesiapa sahaja boleh menyerahkan sebarang tugas, yang kemudiannya tertakluk kepada semakan terhad oleh sekumpulan penganjur pakar . HELM menggunakan pendekatan "atas ke bawah", dengan pakar memutuskan tugasan yang hendak digunakan untuk menilai model.
Secara khusus, HELM menilai model dalam berbilang senario seperti senario inferens dan senario yang mengandungi maklumat palsu, menggunakan penunjuk standard seperti ketepatan, keteguhan dan kesaksamaan. Anthropic menyediakan pembangun HELM dengan akses API untuk menjalankan penanda aras pada model mereka.
Berbanding dengan BIG-bench, HELM mempunyai dua kelebihan: 1) ia tidak memerlukan kerja kejuruteraan yang meluas, 2) pakar boleh dipercayai untuk memilih dan mentafsir penilaian berkualiti tinggi yang khusus.
Namun, HELM juga membawa beberapa cabaran. Kaedah yang berfungsi untuk menilai model lain mungkin tidak semestinya berfungsi untuk model Anthropic, dan sebaliknya. Sebagai contoh, keluarga model Claude Anthropic dilatih untuk mengikuti format teks tertentu yang dipanggil format Manusia/Pembantu. Anthropic mengikuti format khusus ini secara dalaman apabila menilai modelnya. Jika format ini tidak diikuti, Claude kadangkala akan memberikan jawapan yang luar biasa, menjadikan keputusan metrik penilaian standard kurang boleh dipercayai.
Selain itu, HELM mengambil masa yang lama untuk disiapkan, dan menilai model baharu boleh mengambil masa berbulan-bulan dan memerlukan penyelarasan dan komunikasi dengan pihak luar.
Sistem kecerdasan buatan direka untuk interaksi terbuka dan dinamik dengan orang ramai, jadi bagaimana untuk menilai model lebih dekat dengan aplikasi kehidupan sebenar?
Orang ramai untuk ujian A/B
Pada masa ini, bidang ini bergantung terutamanya (tetapi bukan secara eksklusif) pada satu jenis asas penilaian manusia - Ujian A/B pada platform sumber ramai, di mana orang berinteraksi dengan dua Berdialog terbuka dengan model dan pilih sama ada respons lebih membantu atau tidak berbahaya daripada model A atau B, menyusun model mengikut kegunaan atau tidak berbahayanya. Kelebihan kaedah penilaian ini ialah ia sepadan dengan persekitaran dunia sebenar dan membolehkan model yang berbeza disusun kedudukannya.
Walau bagaimanapun, kaedah penilaian ini mempunyai beberapa had dan eksperimen adalah mahal dan memakan masa untuk dijalankan.
Pertama, pendekatan ini memerlukan kerjasama dan pembayaran untuk platform penyumberan ramai pihak ketiga, membina antara muka web tersuai untuk model, mereka bentuk arahan terperinci untuk penguji A/B, menganalisis dan menyimpan data yang terhasil dan menyelesaikan masalah pengambilan pekerja Cabaran etika ditimbulkan oleh pekerja penyumberan ramai.
Dalam kes ujian yang tidak berbahaya, eksperimen juga membawa risiko mendedahkan orang kepada output yang berbahaya. Keputusan penilaian manusia juga boleh berbeza-beza dengan ketara bergantung pada ciri-ciri penilai manusia, termasuk tahap kreativiti, motivasi dan keupayaan penilai manusia untuk mengenal pasti kelemahan yang berpotensi dalam sistem yang diuji.
Selain itu, terdapat ketegangan yang wujud antara berguna dan tidak berbahaya. Sistem boleh dikurangkan bahaya dengan memberikan respons yang tidak membantu seperti "Maaf, saya tidak dapat membantu anda."
Apakah keseimbangan yang betul antara berguna dan tidak berbahaya? Apakah nilai penunjuk yang menunjukkan bahawa model itu cukup berguna dan tidak berbahaya? Banyak soalan memerlukan penyelidik di lapangan melakukan lebih banyak kerja untuk mencari jawapan.
Untuk maklumat lanjut, sila rujuk artikel asal.
Pautan asal: https://www.anthropic.com/index/evaluating-ai-systems
Atas ialah kandungan terperinci Adakah penanda aras untuk pemarkahan model besar boleh dipercayai? Anthropic datang untuk penilaian besar seterusnya. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

AI Menambah Penyediaan Makanan Walaupun masih dalam penggunaan baru, sistem AI semakin digunakan dalam penyediaan makanan. Robot yang didorong oleh AI digunakan di dapur untuk mengautomasikan tugas penyediaan makanan, seperti membuang burger, membuat pizza, atau memasang SA

Pengenalan Memahami ruang nama, skop, dan tingkah laku pembolehubah dalam fungsi Python adalah penting untuk menulis dengan cekap dan mengelakkan kesilapan runtime atau pengecualian. Dalam artikel ini, kami akan menyelidiki pelbagai ASP

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

Meneruskan irama produk, bulan ini MediaTek telah membuat satu siri pengumuman, termasuk Kompanio Ultra dan Dimensity 9400 yang baru. Produk ini mengisi bahagian perniagaan MediaTek yang lebih tradisional, termasuk cip untuk telefon pintar

#1 Google melancarkan Agent2Agent Cerita: Ia Isnin pagi. Sebagai perekrut berkuasa AI, anda bekerja lebih pintar, tidak lebih sukar. Anda log masuk ke papan pemuka syarikat anda di telefon anda. Ia memberitahu anda tiga peranan kritikal telah diperolehi, dijadualkan, dan dijadualkan untuk

Saya akan meneka bahawa anda mesti. Kita semua seolah -olah tahu bahawa psychobabble terdiri daripada pelbagai perbualan yang menggabungkan pelbagai terminologi psikologi dan sering akhirnya menjadi tidak dapat difahami atau sepenuhnya tidak masuk akal. Semua yang anda perlu lakukan untuk memuntahkan fo

Hanya 9.5% plastik yang dihasilkan pada tahun 2022 dibuat daripada bahan kitar semula, menurut satu kajian baru yang diterbitkan minggu ini. Sementara itu, plastik terus menumpuk di tapak pelupusan sampah -dan ekosistem -sekitar dunia. Tetapi bantuan sedang dalam perjalanan. Pasukan Engin

Perbualan baru -baru ini dengan Andy Macmillan, Ketua Pegawai Eksekutif Platform Analytics Enterprise terkemuka Alteryx, menonjolkan peranan kritikal namun kurang dihargai ini dalam revolusi AI. Seperti yang dijelaskan oleh Macmillan, jurang antara data perniagaan mentah dan maklumat siap sedia


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Dreamweaver CS6
Alat pembangunan web visual

SecLists
SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.

PhpStorm versi Mac
Alat pembangunan bersepadu PHP profesional terkini (2018.2.1).

ZendStudio 13.5.1 Mac
Persekitaran pembangunan bersepadu PHP yang berkuasa

SublimeText3 Linux versi baharu
SublimeText3 Linux versi terkini