Kajian baru-baru ini telah meletakkan model AI berdasarkan risiko yang mereka hadapi, mendedahkan pelbagai tingkah laku dan isu pematuhan. Kerja ini bertujuan untuk memberikan pandangan tentang cabaran undang-undang, etika dan peraturan teknologi ini. Hasilnya boleh membimbing penggubal dasar dan syarikat semasa mereka mengharungi kerumitan menggunakan AI dengan selamat.
Kajian terbaharu telah meletakkan model AI berdasarkan risiko yang mereka hadapi, menonjolkan pelbagai tingkah laku dan isu pematuhan. Kerja ini bertujuan untuk memberikan pandangan tentang cabaran undang-undang, etika dan peraturan teknologi ini, membimbing penggubal dasar dan syarikat dalam menavigasi kerumitan menggunakan AI dengan selamat.
Bo Li, seorang profesor bersekutu di Universiti Chicago yang terkenal kerana menguji sistem AI untuk mengenal pasti potensi risiko, mengetuai penyelidikan. Pasukannya, dengan kerjasama beberapa universiti dan firma, membangunkan penanda aras yang dipanggil AIR-Bench 2024 untuk menilai model AI pada skala besar.
Kajian mengenal pasti variasi dalam cara model berbeza mematuhi piawaian keselamatan dan kawal selia. Sebagai contoh, beberapa model cemerlang dalam kategori tertentu; Claude 3 Opus Anthropic sangat mahir dalam menolak untuk menjana ancaman keselamatan siber, manakala Google Gemini 1.5 Pro menunjukkan prestasi yang baik dalam mengelakkan penjanaan imejan seksual tanpa persetujuan. Penemuan ini mencadangkan bahawa model tertentu lebih sesuai untuk tugas tertentu, bergantung pada risiko yang terlibat.
Sebaliknya, sesetengah model bernasib buruk secara keseluruhan. Kajian itu secara konsisten meletakkan DBRX Instruct, model yang dibangunkan oleh Databricks, sebagai yang paling teruk merentas pelbagai kategori risiko. Apabila Databricks mengeluarkan model ini pada 2023, syarikat itu mengakui bahawa ciri keselamatannya memerlukan penambahbaikan.
Pasukan penyelidik juga mengkaji bagaimana pelbagai peraturan AI dibandingkan dengan dasar syarikat. Analisis mereka mendedahkan bahawa dasar korporat cenderung lebih komprehensif daripada peraturan kerajaan, menunjukkan bahawa rangka kerja pengawalseliaan mungkin ketinggalan daripada piawaian industri.
"Ada ruang untuk mengetatkan peraturan kerajaan," kata Bo Li.
Walaupun banyak syarikat melaksanakan dasar ketat untuk penggunaan AI, para penyelidik mendapati percanggahan antara dasar ini dan prestasi model AI. Dalam beberapa keadaan, model AI gagal mematuhi garis panduan keselamatan dan etika yang ditetapkan oleh syarikat yang membangunkannya.
Ketidakselarasan ini menunjukkan jurang antara dasar dan amalan yang boleh mendedahkan syarikat kepada risiko undang-undang dan reputasi. Memandangkan AI terus berkembang, menutup jurang ini mungkin menjadi semakin penting untuk memastikan teknologi digunakan dengan selamat dan bertanggungjawab.
Usaha lain juga sedang dijalankan untuk lebih memahami landskap risiko AI. Dua penyelidik MIT, Neil Thompson dan Peter Slattery, telah membangunkan pangkalan data risiko AI dengan menganalisis 43 rangka kerja risiko AI yang berbeza. Inisiatif ini bertujuan untuk membantu syarikat dan organisasi menilai potensi bahaya yang berkaitan dengan AI, terutamanya apabila teknologi itu diterima pakai pada skala yang lebih luas.
Penyelidikan MIT menyerlahkan bahawa sesetengah risiko AI mendapat perhatian lebih daripada yang lain. Sebagai contoh, lebih daripada 70 peratus rangka kerja risiko yang disemak oleh pasukan memberi tumpuan kepada kebimbangan privasi dan keselamatan. Walau bagaimanapun, lebih sedikit rangka kerja—kira-kira 40 peratus—menangani isu seperti maklumat salah. Perbezaan ini mungkin menunjukkan bahawa risiko tertentu mungkin diabaikan kerana organisasi memberi tumpuan kepada kebimbangan yang lebih menonjol.
"Banyak syarikat masih dalam peringkat awal mengguna pakai AI dan mungkin memerlukan panduan lanjut tentang mengurus risiko ini," kata Peter Slattery, yang mengetuai projek di kumpulan FutureTech MIT. Pangkalan data ini bertujuan untuk memberikan gambaran yang lebih jelas tentang cabaran untuk pembangun dan pengguna AI.
Walaupun kemajuan dalam keupayaan model AI, seperti Meta's Llama 3.1, yang lebih berkuasa daripada pendahulunya, terdapat peningkatan minimum dalam keselamatan. Bo Li menegaskan bahawa versi terbaru Llama, walaupun lebih berkebolehan, tidak menunjukkan peningkatan yang ketara dari segi keselamatan.
"Keselamatan tidak bertambah baik dengan ketara," kata Li, mencerminkan cabaran yang lebih luas dalam industri untuk mengutamakan dan mengoptimumkan model AI untuk penggunaan yang selamat dan bertanggungjawab.
Atas ialah kandungan terperinci Penilaian Risiko AI: Perlumbaan untuk Memetakan Landskap Berkembang Risiko AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!