Rumah  >  Artikel  >  Peranti teknologi  >  Surat terbuka Musk dan orang lain yang menggesa penggantungan penyelidikan AI telah dipersoalkan dan dituduh memburukkan gembar-gembur dan memutarbelitkan kertas kerja

Surat terbuka Musk dan orang lain yang menggesa penggantungan penyelidikan AI telah dipersoalkan dan dituduh memburukkan gembar-gembur dan memutarbelitkan kertas kerja

王林
王林ke hadapan
2023-04-17 08:07:021511semak imbas

Surat terbuka Musk dan orang lain yang menggesa penggantungan penyelidikan AI telah dipersoalkan dan dituduh memburukkan gembar-gembur dan memutarbelitkan kertas kerja

Menurut berita pada 31 Mac, Ketua Pegawai Eksekutif Tesla Elon Musk dan pengasas bersama Apple Steve Waugh Steve Wozniak dan beribu-ribu penyelidik AI lain baru-baru ini menandatangani surat panggilan terbuka. untuk moratorium penyelidikan ke dalam teknologi AI yang lebih maju. Walau bagaimanapun, surat ini telah dipersoalkan oleh ramai pakar dan juga penandatangan, dan dituduh memburukkan gembar-gembur AI, memalsukan tandatangan dan memutarbelitkan kertas.

Surat terbuka itu ditulis oleh Future of Life Institute, sebuah organisasi bukan untung yang misinya adalah untuk "mengurangkan risiko bencana dan kewujudan global yang ditimbulkan oleh teknologi berkuasa." Secara khusus, institut ini memberi tumpuan kepada mengurangkan risiko "kewujudan" jangka panjang kepada manusia, seperti AI superintelligent. Musk ialah penyokong organisasi itu, menderma $10 juta kepadanya pada 2015.

Surat itu berbunyi: “Sistem AI yang lebih berkuasa harus dibangunkan hanya apabila kami yakin bahawa kesan AI adalah positif dan risikonya boleh dikawal Oleh itu, kami menyeru semua makmal AI untuk menggantung sekurang-kurangnya 6 bulan untuk melatih sistem AI yang lebih berkuasa daripada makmal AI dan pakar bebas harus menggunakan masa ini untuk bersama-sama membangunkan dan melaksanakan satu set protokol keselamatan yang dikongsi untuk reka bentuk dan pembangunan AI lanjutan oleh pakar luar yang ketat "

Surat itu juga menjelaskan: "Ini tidak bermakna pembangunan AI ditangguhkan secara keseluruhan, hanya berundur daripada perlumbaan berbahaya kepada perlumbaan yang lebih besar dan tidak dapat diramalkan dengan keupayaan yang muncul. "Model kotak hitam." Ia merujuk kepada AI ​perlumbaan antara syarikat teknologi besar seperti Microsoft dan Google, yang telah mengeluarkan banyak produk AI baharu pada tahun lalu.

Penandatangan terkenal lain termasuk Emad Mostaque, Ketua Pegawai Eksekutif penjana imej pemula Stability AI, pengarang dan ahli sejarah Yuval Noah Harari Yuval Noah Harari) dan pengasas bersama Pinterest Evan Sharp, antara lain. Terdapat juga tandatangan daripada pekerja syarikat yang terlibat dalam pertandingan AI, termasuk syarikat saudara Google DeepMind dan Microsoft. Walaupun OpenAI membangunkan dan mengkomersialkan siri GPT model AI, tiada siapa yang menandatangani surat itu.

Walaupun melalui proses pengesahan, surat itu pada mulanya mempunyai banyak penanda tangan palsu, termasuk menyamar sebagai Ketua Pegawai Eksekutif OpenAI Sam Altman, Ketua Sains Meta Meta, Yann Le Yann LeCun. The Future of Life Institute telah membersihkan senarai itu dan menggantung menunjukkan lebih banyak tandatangan pada surat itu semasa ia mengesahkan setiap tandatangan.

Walau bagaimanapun, pelepasan surat terbuka ini telah menimbulkan kekecohan dan telah diteliti oleh ramai penyelidik AI, termasuk ramai penandatangan sendiri. Sesetengah penandatangan telah menarik balik pendirian mereka, beberapa tandatangan berprofil tinggi telah terbukti palsu, dan lebih ramai penyelidik dan pakar AI secara terbuka menyatakan bantahan mereka terhadap penerangan surat dan pendekatan yang dicadangkan.

Gary Marcus, profesor psikologi dan neurosains di Universiti New York, berkata: "Surat itu tidak sempurna, tetapi semangatnya betul Sementara itu, Ketua Pegawai Eksekutif Stability AI Mu Si Tucker berkata di Twitter bahawa OpenAI ialah seorang syarikat AI yang benar-benar "terbuka", "Jadi, saya tidak fikir menggantung latihan selama enam bulan adalah idea terbaik, dan saya tidak bersetuju dengan banyak perkara dalam surat itu, tetapi surat itu Ada bahagiannya yang sungguh menarik.”

Pakar AI mengkritik surat itu kerana meneruskan "gembar-gembur AI" tetapi gagal menyenaraikan atau meminta tindakan konkrit mengenai bahaya AI yang wujud hari ini. Ada yang berpendapat bahawa ini menggalakkan pandangan yang telah lama dipegang tetapi agak tidak realistik yang telah dikritik sebagai berbahaya dan anti-demokratik kerana ia memihak kepada orang kaya dan membolehkan mereka mengambil tindakan yang meragukan secara moral atas alasan tertentu.

Emily M. Bender, seorang profesor di Jabatan Linguistik di Universiti Washington dan pengarang bersama kertas kerja yang dipetik pada permulaan surat terbuka, menulis di Twitter bahawa surat itu "dipenuhi dengan AI gembar-gembur." , dan menyalahgunakan hasil penyelidikannya. Surat itu menyatakan: "Penyelidikan meluas menunjukkan bahawa sistem AI dengan kecerdasan manusia yang setanding mungkin menimbulkan ancaman besar kepada masyarakat dan manusia tetapi Bender menentang bahawa dia secara khusus menunjukkan dalam kajian bahawa ancaman ini merujuk kepada model Bahasa berskala besar semasa dan." penggunaannya dalam sistem penindasan, yang jauh lebih konkrit dan mendesak daripada ancaman AI masa depan yang dikemukakan dalam surat terbuka.

Bender menyambung: "Kami menerbitkan kertas kerja penuh pada akhir 2020 yang menunjukkan bahawa tergesa-gesa untuk membina model bahasa yang lebih besar tanpa mengambil kira risiko adalah bermasalah. Tetapi risiko dan bahaya tidak pernah terlalu besar untuk AI. berkuasa' , sebaliknya mereka adalah mengenai penumpuan kuasa di tangan rakyat, tentang memperbanyakkan sistem penindasan, tentang pemusnahan ekosistem maklumat, tentang pemusnahan ekosistem semula jadi, dll. ”

Sasha Luccioni, seorang saintis penyelidikan di permulaan AI Hugging Face, berkata dalam satu temu bual: "Surat terbuka pada dasarnya mengelirukan: untuk menarik perhatian semua orang kepada fakta bahawa model bahasa besar dibayangkan kekuatan dan bahaya, dan mencadangkan sangat samar-samar, penyelesaian yang hampir tidak berkesan, daripada memfokuskan pada bahaya ini dan menanganinya di sini dan sekarang, contohnya, memerlukan lebih ketelusan apabila melibatkan data dan keupayaan latihan LLM, atau memerlukan perundangan untuk menyediakan tempat dan bila ia boleh digunakan. profesor sains komputer di Princeton University, berkata surat terbuka itu penuh dengan gembar-gembur AI dan "menjadikan penyelesaian nyata dan berlaku kemudaratan AI menjadi lebih sukar."

Surat terbuka itu menimbulkan beberapa persoalan: "Adakah kita patut mengautomasikan semua pekerjaan, termasuk pekerjaan yang memuaskan? Patutkah kita memupuk minda bukan manusia yang akhirnya boleh mengatasi kecerdasan manusia dan menggantikannya?" berisiko kehilangan kawalan tamadun? Sama ada komputer akan menggantikan manusia dan mengambil alih tamadun manusia adalah persoalan yang sangat jauh, sebahagian daripada pemikiran jangka panjang yang mengalihkan perhatian kita daripada masalah semasa. Lagipun, AI sudah pun disepadukan ke dalam pekerjaan orang ramai, mengurangkan keperluan untuk profesion tertentu, dan bukannya menjadi satu bentuk "pemikiran bukan manusia" yang akan menjadikan kita "usang".

Narayanan juga berkata: "Saya fikir ini adalah kebimbangan jangka panjang yang sah, tetapi ia telah disebut berulang kali dan mengalihkan perhatian daripada bahaya semasa, termasuk keselamatan maklumat dan Risiko Keselamatan yang sangat nyata! Menangani risiko keselamatan ini memerlukan kerjasama kami. Malangnya, gembar-gembur dalam surat ini, termasuk keterlaluan keupayaan AI dan risiko kepada kelangsungan hidup manusia, boleh menyebabkan lebih banyak kekangan pada model AI. daripada penandatangan surat terbuka itu turut mempertahankan diri. Yoshua Bengio, pengasas dan pengarah saintifik organisasi penyelidikan Mila, berkata moratorium enam bulan itu perlu bagi badan tadbir urus, termasuk kerajaan, memahami, mengaudit dan mengesahkan sistem AI untuk memastikan ia berkesan. Dia menambah bahawa terdapat kepekatan kuasa yang berbahaya, alat AI berpotensi untuk menjejaskan kestabilan demokrasi, dan "terdapat konflik antara nilai demokrasi dan cara alat ini dibangunkan."

Max Tegmark, profesor fizik di NSF AI dan Institut Interaksi Fundamental (IAIFI) MIT dan pengarah Institut Kehidupan Masa Hadapan, berkata bahawa senario kes terburuk ialah manusia secara beransur-ansur akan Kehilangan kawalan ke atas tamadun. Risiko sekarang, katanya, ialah "kita kehilangan kawalan kepada sekumpulan orang berkuasa yang tidak dipilih dalam syarikat teknologi yang mempunyai terlalu banyak pengaruh

Komen itu bercakap tentang masa depan yang luas, Ketakutan kehilangan kawalan kesopanan." telah dibayangkan, tetapi tiada langkah konkrit diperkatakan selain menggesa moratorium selama enam bulan.

Timnit Gebru, seorang saintis komputer dan pengasas Institut AI Teragih, menyiarkan di Twitter bahawa adalah ironis bahawa mereka meminta penangguhan latihan lebih daripada model AI yang berkuasa GPT-4, tetapi ia gagal menangani pelbagai kebimbangan mengenai GPT-4 itu sendiri.

Atas ialah kandungan terperinci Surat terbuka Musk dan orang lain yang menggesa penggantungan penyelidikan AI telah dipersoalkan dan dituduh memburukkan gembar-gembur dan memutarbelitkan kertas kerja. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam