Rumah > Artikel > Peranti teknologi > 16 ulama terkemuka berdebat AGI! Marcus, bapa kepada LSTM dan pemenang MacArthur Genius Grant berkumpul bersama
Selepas berehat selama setahun, Debat Kecerdasan Buatan tahunan anjuran Montreal.AI dan Profesor Emeritus Gary Marcus Universiti New York kembali pada malam Jumaat lalu dan sekali lagi diadakan dalam talian seperti pada 2020.
Debat tahun ini – Debat AI 3: Debat AGI – menumpukan pada konsep kecerdasan buatan am, iaitu, mesin yang mampu menyepadukan keupayaan penaakulan peringkat hampir manusia yang tidak terkira banyaknya.
Pautan video: https://www.youtube.com/watch?v=JGiLz_Jx9uI&t=7s
Perbincangan ini berlangsung selama tiga setengah jam, memfokuskan kepada lima topik yang berkaitan dengan kecerdasan buatan: Kognisi dan neurosains, akal sehat, seni bina, etika dan moral, serta dasar dan sumbangan.
Selain banyak nama besar dalam sains komputer, 16 pakar termasuk ahli sains saraf pengiraan Konrad Kording turut mengambil bahagian.
Artikel ini merumuskan secara ringkas pandangan lima orang besar pembaca yang berminat boleh menonton video penuh melalui pautan di atas.
Sebagai pengkritik terkenal, Marcus memetik artikelnya dalam The New Yorker ""Deep Learning" is Adakah kecerdasan buatan merupakan revolusi dalam pembangunan? 》, sekali lagi menuangkan air sejuk pada pembangunan AI.
Marcus berkata bahawa bertentangan dengan gelombang keghairahan selama sedekad untuk kecerdasan buatan selepas pasukan Li Feifei berjaya mengeluarkan ImageNet, "keinginan" untuk membina mesin mahakuasa belum direalisasikan.
Saintis saraf DeepMind Dileep George
Dileep George, seorang saintis saraf dari Google DeepMind, pernah mencadangkan kaedah yang dipanggil konsep "innateness".
Ringkasnya, idea-idea tertentu yang "terbina dalam" dalam fikiran manusia.
Jadi untuk kecerdasan buatan, patutkah kita memberi lebih perhatian kepada sifat semula jadi?
Sehubungan itu, George berkata sebarang jenis pertumbuhan dan perkembangan daripada keadaan awal kepada keadaan stabil tertentu melibatkan tiga faktor.
Yang pertama ialah struktur dalaman dalam keadaan awal, yang kedua ialah data input, dan yang ketiga ialah undang-undang semula jadi sejagat.
"Ternyata struktur semula jadi memainkan peranan yang luar biasa dalam setiap kawasan yang kami temui
Bagi mereka yang dianggap Contoh klasik." pembelajaran, seperti memperoleh bahasa, sebaik sahaja anda mula memecahkannya, anda menyedari bahawa data itu hampir tiada kesan ke atasnya.
Bahasa tidak berubah sejak fajar manusia, terbukti dengan fakta bahawa mana-mana kanak-kanak dalam mana-mana budaya boleh menguasainya.
George percaya bahawa bahasa akan menjadi teras kecerdasan buatan, memberi kita peluang untuk mengetahui perkara yang menjadikan manusia sebagai spesies yang unik.
Yejin Choi, seorang profesor sains komputer di Universiti Washington, meramalkan bahawa prestasi AI akan menjadi semakin menakjubkan dalam beberapa tahun akan datang.
Namun, memandangkan kita tidak mengetahui kedalaman rangkaian, mereka akan terus melakukan kesilapan pada kes lawan dan sudut.
"Untuk mesin, perkara gelap bahasa dan kecerdasan mungkin masuk akal." Sudah tentu, jirim gelap yang disebutkan di sini adalah sesuatu yang mudah untuk manusia tetapi sukar untuk mesin.
Marcus berkata bahawa kita kini boleh memperoleh sejumlah besar pengetahuan daripada model bahasa yang besar, tetapi sebenarnya paradigma ini perlu diubah. Kerana model bahasa sebenarnya "dilucutkan" daripada pelbagai jenis input.
Jürgen Schmidhuber, pengarah Makmal Kepintaran Buatan Switzerland IDSIA dan bapa LSTM, menjawab, "Kebanyakan perkara yang kita bincangkan hari ini, sekurang-kurangnya pada dasarnya, telah diterima pakai oleh " Tujuan Umum" bertahun-tahun yang lalu. Rangkaian Neural" diselesaikan. Sistem sedemikian adalah "kurang daripada manusia."
Schmidhuber berkata apabila kuasa pengkomputeran menjadi lebih murah setiap beberapa tahun, "teori lama" akan datang semula. "Kami boleh melakukan banyak perkara dengan algoritma lama ini yang tidak dapat kami lakukan pada masa itu
Kemudian, penyelidik IBM Francesca Rossi bertanya kepada Schmidhuber soalan: "Bagaimana kita boleh." masih melihat Sistem yang tidak mempunyai ciri yang kami mahukan Apakah teknologi yang ditakrifkan itu masih belum memasuki sistem semasa. Rangkaian berulang boleh menjalankan algoritma sewenang-wenangnya, dan salah satu aspek yang paling indah daripadanya ialah mereka juga boleh mempelajari algoritma pembelajaran. Persoalan besar ialah algoritma apa yang boleh dipelajarinya? Kami mungkin memerlukan algoritma yang lebih baik. Pilihan untuk menambah baik algoritma pembelajaran.
Sistem yang pertama muncul pada tahun 1992. Saya menulis kertas pertama saya pada tahun 1992. Tidak banyak yang boleh kami lakukan pada masa itu. Hari ini kita boleh mempunyai berjuta-juta dan berbilion-bilion berat.Kerja baru-baru ini dengan pelajar saya telah menunjukkan bahawa konsep lama ini, dengan sedikit peningkatan di sana sini, tiba-tiba berfungsi dengan baik dan anda boleh mempelajari algoritma pembelajaran baharu yang lebih baik daripada perambatan belakang.
Jeff Clune, profesor bersekutu di University of British ColumbiaTopik yang dibincangkan oleh Jeff Clune, profesor bersekutu sains komputer di University of British Columbia, ialah "Algoritma Penjanaan AI : Laluan Terpantas ke AGI."
Sehubungan itu, beliau percaya dalam amalan akan datang, kaedah reka bentuk manual akhirnya akan memberi laluan kepada penjanaan automatik.
Selepas itu, Clune mencadangkan "tiga teras" untuk menggalakkan pembangunan AI: seni bina meta-pembelajaran, algoritma meta-pembelajaran dan penjanaan secara automatik Persekitaran dan data pembelajaran yang berkesan.
Di sini, Clune mencadangkan penambahan "tiang keempat", iaitu "menggunakan data manusia". Sebagai contoh, model yang dijalankan dalam persekitaran Minecraft boleh mencapai "peningkatan besar" dengan belajar daripada video manusia bermain permainan itu.
Akhir sekali, Clune meramalkan bahawa kita mempunyai 30% peluang untuk mencapai AGI menjelang 2030, dan itu tidak memerlukan paradigma baharu.
Perlu diperhatikan bahawa AGI ditakrifkan di sini sebagai "keupayaan untuk menyelesaikan lebih daripada 50% kerja manusia yang bernilai ekonomi."
Untuk meringkaskan
Pada akhir perbincangan, Marcus meminta semua peserta menjawab soalan dalam masa 30 saat: “Jika anda boleh memberi pelajar satu nasihat, cth. , soalan kecerdasan buatan manakah yang paling perlu kita pelajari sekarang, atau bagaimana untuk mempersiapkan dunia di mana kecerdasan buatan semakin menjadi arus perdana dan sentral, apakah cadangannya? Choi berkata: "Kami Isu AI yang diselaraskan dengan nilai kemanusiaan perlu ditangani, terutamanya dengan penekanan pada kepelbagaian; Saya fikir itu adalah salah satu cabaran utama sebenar yang kami hadapi, secara lebih meluas, menangani cabaran seperti keteguhan, generalisasi dan kebolehjelasan."
Clune: "AGI akan datang. Jadi, bagi penyelidik yang membangunkan AI, saya menggalakkan anda untuk melibatkan diri dalam teknologi berdasarkan kejuruteraan, algoritma, meta-pembelajaran, pembelajaran hujung ke hujung, dll., kerana ini adalah yang paling mungkin diserap ke dalam AGI kami sedang dibuat Bagi penyelidik bukan AI, mungkin isu yang paling penting ialah tadbir urus Sebagai contoh, apakah peraturan semasa membangunkan AGI? ? Tetapkan peraturan?"
Pada penghujung petang, Marcus mengimbas kembali ucapannya dalam perbahasan sebelum ini: "Ia memerlukan sebuah kampung untuk memupuk kecerdasan buatan."
"Saya rasa itu lebih benar sekarang," katanya. "AI dahulunya masih kanak-kanak, tetapi kini ia agak seperti seorang remaja yang mengamuk yang belum sepenuhnya mengembangkan penghakiman matang sepenuhnya." . 》
Atas ialah kandungan terperinci 16 ulama terkemuka berdebat AGI! Marcus, bapa kepada LSTM dan pemenang MacArthur Genius Grant berkumpul bersama. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!