Rumah >Peranti teknologi >AI >Risiko AI di luar kawalan meningkat: Berat model terbuka mencetuskan protes Meta
Editor: Du Wei, Xiaozhou
AI, terutamanya sumber terbuka dan sumber tertutup dalam era model besar, mempunyai kebaikan dan keburukan yang penting ialah bagaimana melakukan kerja yang baik dalam proses menggunakannya.
Orang ramai sentiasa berbelah bahagi mengenai pilihan antara sumber terbuka dan sumber tertutup dalam bidang AI Walau bagaimanapun, dalam era model besar, kuasa sumber terbuka yang kuat telah muncul secara senyap-senyap. Menurut dokumen dalaman yang bocor sebelum ini daripada Google, di sekitar model sumber terbuka seperti LLaMA Meta, seluruh komuniti dengan pantas membina model serupa dengan OpenAI dan keupayaan model besar Google.
Tidak syak lagi bahawa Meta adalah teras mutlak dunia sumber terbuka, dengan usaha sumber terbuka yang berterusan seperti keluaran terbaru Llama 2. Namun, segala yang baik dimusnahkan oleh angin Baru-baru ini, Meta telah "bermasalah" kerana sumber terbuka.
Di luar pejabat Meta di San Francisco, sekumpulan penunjuk perasaan yang memegang papan tanda berkumpul untuk membantah strategi Meta mengeluarkan model AI secara terbuka, dengan mendakwa bahawa model yang dikeluarkan ini menyebabkan "percambahan tidak dapat dipulihkan" teknologi yang berpotensi tidak selamat. Sesetengah penunjuk perasaan membandingkan model besar yang dikeluarkan oleh Meta dengan "senjata pemusnah besar-besaran"
Penunjuk perasaan ini menggelarkan diri mereka sebagai "warga prihatin" dan diketuai oleh Holly Elmore. Menurut LinkedIn, dia adalah penyokong bebas untuk pergerakan Jeda AI.
Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH
Jika model terbukti tidak selamat, dia menyatakan bahawa API boleh ditutup. Sebagai contoh, syarikat seperti Google dan OpenAI hanya membenarkan pengguna mengakses model besar melalui API
Sebaliknya, model sumber terbuka siri LLaMA Meta menjadikan pemberat model tersedia kepada orang ramai, membenarkan sesiapa sahaja yang mempunyai perkakasan dan kepakaran yang betul untuk meniru dan mengubah suai model itu sendiri. Sebaik sahaja berat model dikeluarkan, syarikat penerbitan tidak lagi mempunyai kawalan ke atas cara AI digunakan
Pada pendapat Holly Elmore, melepaskan pemberat model adalah strategi berbahaya, kerana sesiapa sahaja boleh mengubah suai model dan model ini tidak boleh dibuat asal. "Semakin kuat model itu, semakin berbahaya strategi ini."
Berbanding dengan model sumber terbuka, model besar yang diakses melalui API selalunya mempunyai pelbagai ciri keselamatan, seperti penapisan tindak balas atau latihan khusus untuk menghalang output respons berbahaya atau menjengkelkan
Jika pemberat model dilepaskan, lebih mudah untuk melatih semula model untuk melompat ke atas "pengadang" ini. Ini menjadikannya lebih mungkin untuk menggunakan model sumber terbuka ini untuk mencipta perisian pancingan data dan menjalankan serangan rangkaian.
Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH
Dia percaya bahawa sebahagian daripada masalah keselamatan model ialah langkah keselamatan semasa yang diambil tidak mencukupi, jadi perlu mencari cara yang lebih baik untuk memastikan keselamatan model
Pada masa ini, Meta belum mengulas mengenai perkara ini. Walau bagaimanapun, ketua saintis AI Meta Yann LeCun nampaknya menjawab kenyataan bahawa "AI sumber terbuka mesti diharamkan" dan menunjukkan komuniti permulaan AI sumber terbuka yang berkembang pesat di Paris
Terdapat ramai orang yang mempunyai pendapat berbeza dan percaya bahawa strategi terbuka untuk pembangunan AI adalah satu-satunya cara untuk memastikan kepercayaan terhadap teknologi, yang berbeza daripada pandangan Holly Elmore
Sesetengah netizen berkata bahawa sumber terbuka mempunyai kebaikan dan keburukan Ia boleh membolehkan orang ramai memperoleh ketelusan yang lebih besar dan meningkatkan inovasi, tetapi ia juga akan menghadapi risiko penyalahgunaan (seperti kod) oleh pelakon yang berniat jahat.
Seperti yang dijangka, OpenAI diejek sekali lagi, dengan ada yang mengatakan "ia harus kembali kepada sumber terbuka."
.
Terdapat ramai orang yang bimbang tentang sumber terbuka
Peter S. Park, seorang penyelidik pasca doktoral dalam keselamatan kecerdasan buatan di MIT, berkata bahawa pengeluaran meluas model kecerdasan buatan lanjutan pada masa hadapan mungkin menyebabkan banyak masalah kerana pada asasnya adalah mustahil untuk mencegah sepenuhnya penyalahgunaan model kecerdasan buatan.
Walau bagaimanapun, Stella Biderman, pengarah eksekutif EleutherAI, sebuah organisasi penyelidikan kecerdasan buatan bukan untung, berkata: "Setakat ini, terdapat sedikit bukti bahawa model sumber terbuka telah menyebabkan sebarang bahaya khusus. Tidak jelas sama ada hanya meletakkan model di belakang API akan menyelesaikan masalah keselamatan."
Biderman percaya: "Elemen asas membina LLM telah didedahkan dalam kertas penyelidikan percuma yang boleh dibaca oleh sesiapa sahaja untuk membangunkan model mereka sendiri."
Dia seterusnya menegaskan: "Jika syarikat menggalakkan kerahsiaan butiran model, ia mungkin mempunyai akibat buruk yang serius terhadap ketelusan penyelidikan lapangan, kesedaran awam dan pembangunan saintifik, terutamanya bagi penyelidik bebas."Walaupun semua orang sudah membincangkan kesan sumber terbuka, masih tidak jelas sama ada kaedah Meta benar-benar cukup terbuka dan sama ada ia boleh memanfaatkan sumber terbuka.
Stefano Maffulli, pengarah eksekutif Inisiatif Sumber Terbuka (OSI), berkata: "Konsep kepintaran buatan sumber terbuka masih belum ditakrifkan dengan jelas. Organisasi yang berbeza menggunakan istilah untuk merujuk kepada perkara yang berbeza, yang menunjukkan pelbagai peringkat 'tersedia secara umum barangan' , yang boleh mengelirukan orang ramai.”
Maffulli menegaskan bahawa untuk perisian sumber terbuka, isu utama ialah sama ada kod sumber tersedia secara umum dan boleh digunakan untuk sebarang tujuan. Walau bagaimanapun, menghasilkan semula model AI mungkin memerlukan perkongsian data latihan, kaedah pengumpulan data, perisian latihan, berat model, kod inferens dan banyak lagi. Antaranya, isu paling penting ialah data latihan mungkin melibatkan isu privasi dan hak cipta
OSI telah mengusahakan definisi tepat "AI sumber terbuka" sejak tahun lepas dan berkemungkinan akan mengeluarkan draf awal dalam beberapa minggu akan datang. Tetapi tidak kira apa, dia percaya bahawa sumber terbuka adalah penting untuk pembangunan AI. "Jika AI bukan sumber terbuka, kita tidak boleh mempunyai AI yang boleh dipercayai dan bertanggungjawab," katanya
Pada masa hadapan, perbezaan antara sumber terbuka dan sumber tertutup akan berterusan, tetapi sumber terbuka tidak dapat dihalang.
Atas ialah kandungan terperinci Risiko AI di luar kawalan meningkat: Berat model terbuka mencetuskan protes Meta. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!