Rumah  >  Artikel  >  Peranti teknologi  >  Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

WBOY
WBOYke hadapan
2023-10-10 21:05:03631semak imbas

Dalam bidang AI, orang ramai telah lama berpecah tentang pilihan sumber terbuka dan sumber tertutup. Walau bagaimanapun, dalam era model berskala besar, sumber terbuka secara senyap-senyap telah muncul sebagai kuasa yang berkuasa. Menurut dokumen dalaman yang bocor sebelum ini daripada Google, seluruh komuniti dengan pantas membina model serupa dengan OpenAI dan model berskala besar Google, termasuk model sumber terbuka seperti LLaMA di sekitar Meta

Tidak dinafikan bahawa Meta berada di hati. dunia sumber terbuka, telah melakukan usaha berterusan untuk mempromosikan punca sumber terbuka, seperti Llama 2 yang dikeluarkan baru-baru ini. Walau bagaimanapun, seperti yang kita semua tahu, pokok besar mesti mempunyai dahan yang mati, dan Meta telah menghadapi masalah baru-baru ini kerana sumber terbuka

Di luar pejabat Meta di San Francisco, sekumpulan penunjuk perasaan yang memegang papan tanda berkumpul untuk membantah strategi Meta untuk mengeluarkan model AI secara terbuka, mendakwa bahawa model yang diterbitkan ini menyebabkan "percambahan tidak dapat dipulihkan" teknologi yang berpotensi tidak selamat. Beberapa penunjuk perasaan bahkan membandingkan model besar yang dikeluarkan oleh Meta dengan "senjata pemusnah besar-besaran."

Penunjuk perasaan ini menggelarkan diri mereka sebagai "warga prihatin" dan diketuai oleh Holly Elmore. Menurut LinkedIn, dia adalah penyokong bebas untuk pergerakan Jeda AI.

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH

Jika model terbukti tidak selamat, dia menunjukkan bahawa API boleh dimatikan, seperti Google dan OpenAI, dan hanya membenarkan pengguna mengakses data berskala besar melalui Model API

Sebaliknya, siri model sumber terbuka LLaMA Meta menjadikan pemberat model tersedia kepada orang ramai, yang membolehkan sesiapa sahaja yang mempunyai perkakasan dan kepakaran yang sesuai untuk meniru dan mengubah suai model sendiri. Sebaik sahaja pemberat model dikeluarkan, syarikat penerbitan tidak lagi mempunyai kawalan ke atas cara AI digunakan

Bagi Holly Elmore, melepaskan pemberat model adalah strategi berbahaya kerana sesiapa sahaja boleh mengubah suai model ini, dan tiada cara untuk membuat asal pengubahsuaian tersebut. Dia percaya bahawa "model lebih berkuasa, lebih berbahaya strategi ini"

Berbanding dengan sumber terbuka, model besar yang diakses melalui API selalunya mempunyai pelbagai ciri keselamatan, seperti penapisan tindak balas atau latihan khusus untuk mengelakkan output daripada berbahaya atau menjijikkan Responnya

Jika berat model boleh dilepaskan, lebih mudah untuk melatih semula model untuk melompat ke atas "pengadang" ini. Ini menjadikannya lebih mungkin untuk menggunakan model sumber terbuka ini untuk mencipta perisian pancingan data dan menjalankan serangan siber

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

Kandungan yang perlu ditulis semula ialah: Sumber imej: MISHA GUREVICH

Sebab, dia percaya bahawa sebahagiannya daripada masalahnya ialah "menyasarkan "Langkah keselamatan untuk keluaran model tidak mencukupi", dan perlu ada cara yang lebih baik untuk memastikan keselamatan model.

Pada masa ini, Meta tidak mengulas mengenai perkara ini. Walau bagaimanapun, ketua saintis AI Meta Yann LeCun nampaknya telah menjawab kenyataan bahawa "AI sumber terbuka mesti diharamkan" dan menunjukkan komuniti permulaan AI sumber terbuka yang berkembang maju di Paris

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

Penentang dengan Holly Elmore Terdapat juga ramai yang percaya bahawa strategi terbuka untuk pembangunan AI adalah satu-satunya cara untuk memastikan kepercayaan terhadap teknologi.

Sesetengah netizen berkata bahawa sumber terbuka mempunyai kebaikan dan keburukan Ia boleh membolehkan orang ramai memperoleh ketelusan yang lebih tinggi dan meningkatkan inovasi, tetapi ia juga akan menghadapi risiko penyalahgunaan (seperti kod) oleh pelakon yang berniat jahat.

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat

Seperti yang dijangkakan, OpenAI telah dikritik sekali lagi, "Ia sepatutnya kembali kepada sumber terbuka." Penyelidik pasca doktoral Peter S. Park berkata bahawa pengeluaran meluas model AI canggih pada masa hadapan akan menimbulkan masalah khas kerana pada asasnya adalah mustahil untuk mengelakkan penyalahgunaan model AI

Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesatWalau bagaimanapun, pengarah eksekutif EleutherAI, sebuah syarikat tiruan bukan untung. organisasi penyelidikan perisikan Stella Biderman berkata: "Setakat ini, terdapat sedikit bukti bahawa model sumber terbuka menyebabkan sebarang bahaya khusus. Tidak jelas sama ada meletakkan model di belakang API akan menyelesaikan masalah keselamatan

Biderman percaya: " Membina Elemen asas LLM didedahkan dalam kertas penyelidikan percuma yang boleh dibaca oleh sesiapa sahaja di dunia untuk membangunkan model mereka sendiri."

Beliau juga menambah: "Menggalakkan syarikat untuk merahsiakan butiran model mungkin mempunyai akibat buruk yang serius terhadap ketelusan penyelidikan dalam bidang, kesedaran awam dan pembangunan saintifik, terutamanya untuk penyelidik bebas."

Walaupun semua orang telah membincangkan kesan sumber terbuka, masih tidak jelas sama ada kaedah Meta benar-benar cukup terbuka dan sama ada ia boleh memanfaatkan sumber terbuka.

Stefano Maffulli, pengarah eksekutif Inisiatif Sumber Terbuka (OSI), berkata: “Konsep AI sumber terbuka tidak ditakrifkan dengan betul untuk merujuk kepada Perkara yang berbeza yang mewakili pelbagai peringkat "barangan tersedia untuk umum," boleh mengelirukan orang ramai Maffulli menegaskan bahawa untuk perisian sumber terbuka, isu utama ialah Adakah kod sumber tersedia dan boleh diterbitkan semula untuk sebarang tujuan. Walau bagaimanapun, menghasilkan semula model AI mungkin memerlukan perkongsian data latihan, cara data dikumpulkan, perisian latihan, berat model, kod inferens dan banyak lagi. Antaranya, perkara yang paling penting ialah data latihan mungkin melibatkan isu privasi dan hak cipta

OSI telah berusaha untuk memberikan takrifan tepat "AI sumber terbuka" sejak tahun lepas kemungkinan draf awal akan dikeluarkan dalam beberapa minggu akan datang. Tetapi tidak kira apa, dia percaya bahawa sumber terbuka adalah penting untuk pembangunan AI. "Kami tidak boleh mempunyai AI yang boleh dipercayai dan bertanggungjawab jika AI bukan sumber terbuka," katanya.

Pada masa hadapan, perbezaan antara sumber terbuka dan sumber tertutup akan berterusan, tetapi sumber terbuka tidak dapat dihalang.

Atas ialah kandungan terperinci Risiko AI di luar kawalan mencetuskan bantahan menaikkan tanda di Meta, dan LeCun berkata komuniti AI sumber terbuka sedang berkembang pesat. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam