Pertama, SB -1047 akan menghukum pemaju secara berlebihan dan menyekat inovasi.SB-1047 memegang pihak yang bertanggungjawab dan pembangun asal model bertanggungjawab jika model AI disalahgunakan. Adalah mustahil untuk setiap pembangun AI (terutamanya pengaturcara dan usahawan baru) untuk meramalkan setiap kemungkinan penggunaan untuk model mereka. SB-1047 akan memaksa pembangun untuk berundur dan bertindak secara defensif—tepat apa yang kami cuba elakkan. Kedua, SB-1047 akan menyekat pembangunan sumber terbuka. SB-1047 memerlukan semua model yang melebihi ambang tertentu untuk menyertakan "suis bunuh", mekanisme yang boleh menutup program pada bila-bila masa. Jika pembangun bimbang bahawa program yang mereka muat turun dan bina akan dipadamkan, mereka akan lebih teragak-agak untuk mengekod dan bekerjasama. Suis bunuh ini akan memusnahkan komuniti sumber terbuka, yang merupakan sumber banyak inovasi. Kesannya tidak terhad kepada bidang kecerdasan buatan, tetapi dalam segala-galanya dari GPS ke MRI ke Internet itu sendiri.
Ketiga, SB-1047 akan melumpuhkan sektor awam dan penyelidikan AI akademik. Pembangunan sumber terbuka adalah penting untuk sektor swasta, tetapi ia juga penting untuk akademik. Ahli akademik tidak boleh maju tanpa kerjasama dan akses kepada data model. Bagaimanakah kita akan melatih pemimpin AI generasi akan datang jika institusi kita tidak mempunyai akses kepada model dan data yang sesuai? Suis mematikan akan melemahkan lagi usaha pelajar dan penyelidik, yang sudah berada pada kelemahan data dan pengkomputeran berbanding syarikat teknologi besar. SB-1047 akan membunyikan lonceng kematian untuk AI akademik pada masa kita sepatutnya menggandakan pelaburan AI sektor awam.
Paling membimbangkan, rang undang-undang itu tidak menangani potensi bahaya kemajuan dalam kecerdasan buatan, termasuk berat sebelah dan palsu. Sebaliknya, SB-1047 menetapkan ambang sewenang-wenangnya yang mengawal model yang menggunakan jumlah kuasa pengkomputeran tertentu atau menelan belanja $100 juta untuk melatih. Jauh daripada menyediakan perlindungan, langkah ini hanya akan mengehadkan inovasi merentas sektor, termasuk dalam bidang akademik. Hari ini, model AI akademik jatuh di bawah ambang ini, tetapi jika kita ingin mengimbangi semula pelaburan dalam AI sektor swasta dan awam, akademia akan dikawal oleh SB-1047. Ekosistem AI kami akan menjadi lebih teruk akibatnya.
Sekatan SB-1047 terlalu sewenang-wenang dan kita mesti melakukan sebaliknya.
Saya tidak menentang tadbir urus AI. Perundangan adalah penting untuk pembangunan kecerdasan buatan yang selamat dan berkesan. Tetapi dasar AI mesti memperkasakan pembangunan sumber terbuka, mencadangkan peraturan yang bersatu dan munasabah, dan membina keyakinan pengguna. SB-1047 tidak memenuhi piawaian ini.
Berpuluh-puluh saintis telah menandatangani petisyen untuk menentang Sebagai tindak balas kepada SB-1047, sebagai tambahan kepada Li Feifei, kumpulan yang terdiri daripada guru dan pelajar dari 7 kampus Universiti California dan penyelidik dari lebih daripada 20 institusi lain turut mengambil tindakan aktif. Mereka mengarang bersama dan menandatangani surat terbuka yang menentang SB-1047, menggariskan bahaya rang undang-undang itu terhadap matlamat penyelidikan dan pendidikan AI California dari perspektif penyelidik. . Rang undang-undang itu memerlukan "audit keselamatan" dan keupayaan untuk "mematikan sepenuhnya" "model canggih", yang mungkin menghalang pengeluaran model sumber terbuka dan berat terbuka. Peraturan ketat ini mungkin lebih mudah dilaksanakan untuk model proprietari yang dikawal oleh entiti swasta, tetapi lebih sukar untuk model terbuka yang digunakan oleh organisasi bukan untung atau konsortium universiti. Peruntukan rang undang-undang untuk demonstrasi keselamatan dan audit tidak cukup khusus, bergantung pada ujian yang mungkin belum wujud dan mungkin kurang ketelitian saintifik. Kos yang berpotensi untuk audit sedemikian mungkin mampu dibeli dengan mudah untuk entiti komersial dengan produk yang menguntungkan, tetapi untuk keluaran terbuka saintifik oleh entiti komersial seperti siri LLaMA Meta, atau model terbuka yang dilatih oleh organisasi bukan untung atau konsortium universiti, Ini mungkin tidak berlaku. . Disebabkan sekatan yang membebankan ini, pembangun model sumber terbuka boleh memilih untuk membina sistem di luar California atau Amerika Syarikat dan mengeluarkan model mereka tanpa liabiliti. Dalam kes ini, pelakon swasta tanpa mengambil kira pematuhan boleh menggunakan model ini secara rahsia, manakala penyelidik akademik yang dikekang oleh sifat kerja awam mereka, yang mendorong mereka menukar topik penyelidikan atau memindahkan kepada topik yang tidak melanggar kebebasan akademik mereka. , akan dikecualikan. Ketersediaan model sumber terbuka adalah penting untuk penyelidikan AI akademik moden, kerana ia membolehkan ahli akademik meneroka cara model berfungsi, apa yang meningkatkan keupayaan semasa latihan dan cara ia boleh dipertingkatkan dan digodam.
2. Ramalan risiko kecerdasan buatan dan penilaian "keupayaan" adalah tidak saintifik
Sebagai pakar dalam bidang kecerdasan buatan, pembelajaran mesin dan pemprosesan bahasa semula jadi, penyelidik ini menekankan: yang disebut dalam SB-1047 pendekatan untuk menilai risiko model sangat dipersoalkan. Tidak ada konsensus saintifik tentang sama ada dan bagaimana model bahasa atau sistem kecerdasan buatan termaju lain menimbulkan ancaman kepada orang ramai.
3. Perlindungan yang tidak mencukupi untuk model sumber terbuka
Walaupun rang undang-undang menyebut bahawa kes khas mungkin disediakan untuk model sumber terbuka pada masa hadapan, disebabkan oleh pertumbuhan pesat dalam bilangan parameter dan pengurangan dalam kos pengkomputeran, langkah perlindungan sedia ada mungkin sukar diteruskan. Tanpa perlindungan yang kukuh, akibat untuk model ini boleh menjadi jelas dengan cepat. Selain itu, model kecil dengan prestasi setanding memerlukan kos pengiraan yang lebih tinggi daripada model besar. Oleh itu, pindaan dalam rang undang-undang tidak dijangka mengurangkan kesan negatif pada keluaran model sumber terbuka, manakala keperluan pelaporan dan semakan yang ketat akan memberi kesan kepada aktiviti penyelidikan.
4 Kebimbangan tentang penempatan kerja dan hasil kerjaya pelajar
SB-1047 boleh menghalang pelajar yang berminat dengan kecerdasan buatan daripada mempelajari lebih lanjut pengetahuan berkaitan pada masa hadapan, malah mungkin menghalang bakat baharu daripada memasuki sains komputer. dan bidang utama lain. Selain itu, apabila industri teknologi beralih daripada syarikat besar kepada syarikat baru, halangan pengawalseliaan tambahan boleh melumpuhkan inovator baru muncul dengan memihak kepada perniagaan yang lebih besar dan lebih baik. Anjakan ini boleh menyempitkan laluan kerjaya untuk pelajar.签 Tanda ditandatangani oleh beberapa ulama.
Selain surat terbuka, beberapa penyelidik juga memilih untuk bersuara di media sosial. Antaranya, seorang ahli biologi sistem menyatakan bahawa SB-1047 adalah seperti mengaktifkan tindak balas keradangan sebelum kita tahu apa patogen itu, bila ia akan menjangkiti kita, dan di mana jangkitan akan berlaku. Sebelum ini, Ng Enda juga berkali-kali bersuara mengenai perkara ini. Beliau percaya pengawal selia harus mengawal selia aplikasi dan bukannya teknologi. Sebagai contoh, motor elektrik adalah teknologi.Apabila kita memasukkannya ke dalam pengisar, kereta elektrik, mesin dialisis atau bom berpandu, ia menjadi satu aplikasi. Bayangkan jika undang-undang menganggap pengeluar motor bertanggungjawab apabila sesiapa sahaja menggunakan motor itu dengan cara yang berbahaya. Pengeluar motor itu sama ada menghentikan pengeluaran atau menjadikan motor begitu kecil sehingga tidak berguna untuk kebanyakan aplikasi. Jika kita meluluskan undang-undang seperti ini, kita mungkin menghalang orang daripada membina bom, tetapi kita juga akan kehilangan pengisar, kereta elektrik dan mesin dialisis. Sebaliknya, jika kita menumpukan pada apl tertentu, kita boleh menilai risiko dengan lebih rasional dan menilai cara memastikan apl tersebut selamat, malah melarang jenis apl tertentu. Atas ialah kandungan terperinci Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!