Rumah > Artikel > Peranti teknologi > Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat
Dalam bidang AI, orang ramai telah lama berpecah tentang pilihan sumber terbuka dan sumber tertutup. Walau bagaimanapun, dalam era model berskala besar, sumber terbuka secara senyap-senyap telah muncul sebagai kuasa yang berkuasa. Menurut dokumen dalaman yang bocor sebelum ini daripada Google, seluruh komuniti dengan pantas membina model serupa dengan OpenAI dan model berskala besar Google, termasuk model sumber terbuka seperti LLaMA di sekitar Meta
Tidak dinafikan bahawa Meta berada di hati. dunia sumber terbuka, telah melakukan usaha berterusan untuk mempromosikan punca sumber terbuka, seperti Llama 2 yang dikeluarkan baru-baru ini. Walau bagaimanapun, seperti yang kita semua tahu, pokok besar mesti mempunyai dahan yang mati, dan Meta telah menghadapi masalah baru-baru ini kerana sumber terbuka
Di luar pejabat Meta di San Francisco, sekumpulan penunjuk perasaan yang memegang papan tanda berkumpul untuk membantah strategi Meta untuk mengeluarkan model AI secara terbuka, mendakwa bahawa model yang diterbitkan ini menyebabkan "percambahan tidak dapat dipulihkan" teknologi yang berpotensi tidak selamat. Beberapa penunjuk perasaan bahkan membandingkan model besar yang dikeluarkan oleh Meta dengan "senjata pemusnah besar-besaran."
Penunjuk perasaan ini menggelarkan diri mereka sebagai "warga prihatin" dan diketuai oleh Holly Elmore. Menurut LinkedIn, dia adalah penyokong bebas untuk pergerakan Jeda AI.
Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH
Jika model terbukti tidak selamat, dia menunjukkan bahawa API boleh dimatikan, seperti Google dan OpenAI, dan hanya membenarkan pengguna mengakses data berskala besar melalui Model API
Sebaliknya, siri model sumber terbuka LLaMA Meta menjadikan pemberat model tersedia kepada orang ramai, yang membolehkan sesiapa sahaja yang mempunyai perkakasan dan kepakaran yang sesuai untuk meniru dan mengubah suai model sendiri. Sebaik sahaja pemberat model dikeluarkan, syarikat penerbitan tidak lagi mempunyai kawalan ke atas cara AI digunakan
Bagi Holly Elmore, melepaskan pemberat model adalah strategi berbahaya kerana sesiapa sahaja boleh mengubah suai model ini, dan tiada cara untuk membuat asal pengubahsuaian tersebut. Dia percaya bahawa "model lebih berkuasa, lebih berbahaya strategi ini"
Berbanding dengan sumber terbuka, model besar yang diakses melalui API selalunya mempunyai pelbagai ciri keselamatan, seperti penapisan tindak balas atau latihan khusus untuk mengelakkan output daripada berbahaya atau menjijikkan Responnya
Jika berat model boleh dilepaskan, lebih mudah untuk melatih semula model untuk melompat ke atas "pengadang" ini. Ini menjadikannya lebih mungkin untuk menggunakan model sumber terbuka ini untuk mencipta perisian pancingan data dan menjalankan serangan siber
Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH
Sebab, dia percaya bahawa sebahagiannya daripada masalahnya ialah "menyasarkan "Langkah keselamatan untuk keluaran model tidak mencukupi", dan perlu ada cara yang lebih baik untuk memastikan keselamatan model.
Pada masa ini, Meta tidak mengulas mengenai perkara ini. Walau bagaimanapun, ketua saintis AI Meta Yann LeCun nampaknya telah menjawab kenyataan bahawa "AI sumber terbuka mesti diharamkan" dan menunjukkan komuniti permulaan AI sumber terbuka yang berkembang maju di Paris
Penentang dengan Holly Elmore Terdapat juga ramai yang percaya bahawa strategi terbuka untuk pembangunan AI adalah satu-satunya cara untuk memastikan kepercayaan terhadap teknologi.
Sesetengah netizen berkata bahawa sumber terbuka mempunyai kebaikan dan keburukan Ia boleh membolehkan orang ramai memperoleh ketelusan yang lebih tinggi dan meningkatkan inovasi, tetapi ia juga akan menghadapi risiko penyalahgunaan (seperti kod) oleh pelakon yang berniat jahat.
Seperti yang dijangkakan, OpenAI telah dikritik sekali lagi, "Ia sepatutnya kembali kepada sumber terbuka." Penyelidik pasca doktoral Peter S. Park berkata bahawa pengeluaran meluas model AI canggih pada masa hadapan akan menimbulkan masalah khas kerana pada asasnya adalah mustahil untuk mengelakkan penyalahgunaan model AI
Walau bagaimanapun, pengarah eksekutif EleutherAI, sebuah syarikat tiruan bukan untung. organisasi penyelidikan perisikan Stella Biderman berkata: "Setakat ini, terdapat sedikit bukti bahawa model sumber terbuka menyebabkan sebarang bahaya khusus. Tidak jelas sama ada meletakkan model di belakang API akan menyelesaikan masalah keselamatan
Beliau juga menambah: "Menggalakkan syarikat untuk merahsiakan butiran model mungkin mempunyai akibat buruk yang serius terhadap ketelusan penyelidikan dalam bidang, kesedaran awam dan pembangunan saintifik, terutamanya untuk penyelidik bebas."
Walaupun semua orang telah membincangkan kesan sumber terbuka, masih tidak jelas sama ada kaedah Meta benar-benar cukup terbuka dan sama ada ia boleh memanfaatkan sumber terbuka.
Stefano Maffulli, pengarah eksekutif Inisiatif Sumber Terbuka (OSI), berkata: “Konsep AI sumber terbuka tidak ditakrifkan dengan betul untuk merujuk kepada Perkara yang berbeza yang mewakili pelbagai peringkat "barangan tersedia untuk umum," boleh mengelirukan orang ramai Maffulli menegaskan bahawa untuk perisian sumber terbuka, isu utama ialah Adakah kod sumber tersedia dan boleh diterbitkan semula untuk sebarang tujuan. Walau bagaimanapun, menghasilkan semula model AI mungkin memerlukan perkongsian data latihan, cara data dikumpulkan, perisian latihan, berat model, kod inferens dan banyak lagi. Antaranya, perkara yang paling penting ialah data latihan mungkin melibatkan isu privasi dan hak cipta
OSI telah berusaha untuk memberikan takrifan tepat "AI sumber terbuka" sejak tahun lepas kemungkinan draf awal akan dikeluarkan dalam beberapa minggu akan datang. Tetapi tidak kira apa, dia percaya bahawa sumber terbuka adalah penting untuk pembangunan AI. "Kami tidak boleh mempunyai AI yang boleh dipercayai dan bertanggungjawab jika AI bukan sumber terbuka," katanya.
Pada masa hadapan, perbezaan antara sumber terbuka dan sumber tertutup akan berterusan, tetapi sumber terbuka tidak dapat dihalang.
Atas ialah kandungan terperinci Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!