Rumah > Artikel > Peranti teknologi > Surat terbuka menggesa moratorium penyelidikan kecerdasan buatan
Institut Masa Depan Kehidupan telah mengeluarkan surat terbuka yang menyeru agar moratorium enam bulan ke atas beberapa bentuk penyelidikan kecerdasan buatan. Memetik "risiko serius kepada masyarakat dan manusia," kumpulan itu meminta makmal AI untuk menggantung penyelidikan mengenai sistem AI yang lebih berkuasa daripada GPT-4 sehingga lebih banyak "pengadang keselamatan" boleh diletakkan di sekeliling mereka.
The Future of Life Institute menulis dalam surat terbuka pada 22 Mac: “Sistem kecerdasan buatan dengan keupayaan untuk bersaing dengan manusia akan mempunyai kesan kepada masyarakat dan manusia menimbulkan risiko yang ketara. "Kecerdasan buatan lanjutan boleh mewakili perubahan yang mendalam dalam sejarah kehidupan di Bumi dan harus dirancang dan diuruskan dengan penjagaan dan sumber yang setimpal. Malangnya, tahap perancangan dan pengurusan ini belum dicapai. "
Institut percaya bahawa jika tiada rangka kerja tadbir urus kecerdasan buatan - seperti Asilomar AI Principles, versi yang terkenal dari Simov's Three Undang-undang Robotik. 23 garis panduan ini dibangunkan oleh institut) - kami kekurangan mekanisme pemeriksaan yang sesuai untuk memastikan kecerdasan buatan berkembang secara terancang dan terkawal. Inilah yang kita hadapi hari ini.
Surat itu berbunyi: "Malangnya, tahap perancangan dan pengurusan ini tidak berlaku, walaupun pada hakikatnya makmal AI telah semakin tidak terkawal sejak beberapa bulan kebelakangan ini. . Perlumbaan untuk membangunkan dan menggunakan minda digital yang semakin berkuasa yang tiada siapa—walaupun pencipta mereka—boleh memahami, meramalkan atau mengawal dengan pasti > Tanpa adanya moratorium sukarela oleh penyelidik AI, Institut Kehidupan Masa Depan menggesa kerajaan untuk mengambilnya. tindakan untuk mencegah bahaya daripada penyelidikan berterusan ke dalam model AI berskala besar.
Penyelidik AI teratas berpecah sama ada untuk menjeda penyelidikan. Lebih 5,000 orang telah menandatangani untuk menyokong surat terbuka itu, termasuk pemenang Anugerah Turing Yoshua Bengio, pengasas bersama OpenAI Elon Musk dan pengasas bersama Apple Steve Wozniak.
Walau bagaimanapun, tidak semua orang yakin bahawa melarang penyelidikan tentang sistem AI yang lebih berkuasa daripada GPT-4 adalah demi kepentingan terbaik kita.
“Saya tidak menandatangani surat ini,” ketua saintis AI Meta dan pemenang Anugerah Turing Yann LeCun (pemenang Anugerah Turing 2018 bersama Bengio dan Geoffrey Hinton) tweet Said di atas. "Saya tidak bersetuju dengan premisnya."
LeCun, Bengio dan Hinton dipanggil "bapa revolusi pembelajaran mendalam" oleh Association for Computing Machinery (ACM) ). Kegilaan kecerdasan buatan semasa dilancarkan dua tahun lalu melalui penyelidikan mengenai rangkaian saraf. Pada masa itu, rangkaian saraf dalam merupakan tumpuan utama penyelidik kecerdasan buatan di seluruh dunia.
Dengan kertas Transformer yang diterbitkan oleh Google pada tahun 2017, penyelidikan kecerdasan buatan telah mengalami keterlaluan. Tidak lama kemudian, penyelidik melihat kekayaan kuasa yang tidak dijangka dari model bahasa yang besar, seperti keupayaan untuk mempelajari matematik, penaakulan rantaian pemikiran, dan arahan yang diikuti.
Pada penghujung November 2022, orang ramai telah merasai perkara yang boleh dilakukan oleh LLM ini apabila OpenAI mengeluarkan ChatGPT kepada dunia. Sejak itu, komuniti teknologi telah berusaha untuk melaksanakan LLM dalam semua yang mereka lakukan, dan "perlumbaan senjata" untuk membina model yang lebih besar dan lebih berkuasa telah mendapat momentum tambahan, seperti yang ditunjukkan oleh pengumuman GPT-4 pada 15 Mac.
Walaupun sesetengah pakar AI telah menyatakan kebimbangan tentang kesan negatif LLM, termasuk kecenderungan untuk berbohong, risiko pendedahan data peribadi dan impak yang berpotensi ke atas pekerjaan, Ia tidak menyejukkan permintaan awam yang luar biasa untuk keupayaan AI baharu. Ketua Pegawai Eksekutif Nvidia Jensen Huang berkata kita mungkin berada di titik perubahan dalam kecerdasan buatan. Tetapi jin itu seolah-olah keluar dari botol, dan tidak ada yang memberitahu ke mana ia akan pergi seterusnya.
Atas ialah kandungan terperinci Surat terbuka menggesa moratorium penyelidikan kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!