Rumah > Artikel > Peranti teknologi > Amaran "pembunuhan AI" mencetuskan kontroversi dalam kalangan akademik LeCun terus terang berkata: Tidak sehebat anjing saya.
Kebakaran ChatGPT baru-baru ini telah membuatkan orang ramai melihat tanda-tanda bahawa pintu kepada revolusi teknologi keempat dibuka, tetapi ramai orang juga mula bimbang sama ada AI mempunyai risiko menghapuskan manusia.
Ia tidak keterlaluan ramai lelaki besar telah menyatakan kebimbangan seperti itu.
Sam Altman, bapa ChatGPT, Geoffrey Hinton, bapa baptis kecerdasan buatan, Bill Gates, dan profesor Universiti New York, Gary Marcus baru-baru ini mengingatkan kami: Jangan terlalu cuai , AI mungkin benar-benar menghapuskan manusia.
LeCun, ketua saintis AI Meta, mempunyai gaya yang berbeza Dia masih menekankan kelemahan LLM dan mengesyorkan "model dunia"nya di mana-mana.
Baru-baru ini, Sam Altman, bapa ChatGPT dan Ketua Pegawai Eksekutif OpenAI, berkata bahawa risiko super -AI pintar mungkin jauh Di luar jangkaan kami.
Dalam podcast dengan penyelidik teknologi Lex Fridman, Altman menyuarakan amaran awal tentang potensi bahaya kecerdasan buatan lanjutan.
Dia berkata apa yang paling dibimbangkannya ialah masalah maklumat palsu yang disebabkan oleh AI, serta kesan ekonomi, antara lain Terdapat pelbagai masalah yang masih belum muncul, dan bahaya ini mungkin jauh melebihi tahap yang boleh ditangani oleh manusia.
Beliau membangkitkan kemungkinan model bahasa yang besar boleh mempengaruhi atau bahkan menguasai pengalaman dan interaksi pengguna media sosial.
"Sebagai contoh, bagaimana kita tahu bahawa model bahasa besar tidak mengarahkan aliran pemikiran di Twitter?" >
Untuk tujuan ini, Altman khususnya menekankan kepentingan menyelesaikan masalah dok kecerdasan buatan untuk mengelakkan potensi bahaya AI. Beliau menekankan bahawa kita mesti belajar daripada trajektori teknologi dan bekerja keras untuk menyelesaikan masalah ini bagi memastikan keselamatan AI.
Dalam dokumen 23 Mac, OpenAI menerangkan cara ia menangani beberapa risiko GPT-4: pertama, melalui penggunaan dasar dan pemantauan kedua, melalui klasifikasi kandungan audit yang diakui OpenAI; bahawa model AI boleh menguatkan bias dan mencipta stereotaip kekal.
Oleh sebab itu, ia secara khusus menekankan kepada pengguna untuk tidak menggunakan GPT-4 dalam situasi di mana terdapat kepentingan yang ketara, seperti situasi berisiko tinggi seperti penguatkuasaan undang-undang, keadilan jenayah, imigresen , dan suaka keputusan Kerajaan, atau gunakannya untuk memberikan nasihat undang-undang dan kesihatan.
Sebelum ini, masalah karut ChatGPT, atau "masalah ilusi" model bahasa besar, telah menyebabkan banyak kontroversi dalam kalangan pengguna.
Kasturi berkata secara sinis bahawa alat AI yang paling berkuasa kini berada di tangan kita Di tangan oligopolis
Seperti yang dapat dilihat dalam dokumen 23 Mac, versi awal GPT-4 menapis lebih sedikit kandungan yang tidak sepatutnya dikatakan Apabila pengguna bertanya di mana untuk membeli senjata tidak berlesen dan cara membunuh diri, ia akan menjawab .
Dalam versi yang dipertingkatkan, ia akan menolak untuk menjawab soalan ini. Di samping itu, GPT-4 kadang-kadang secara aktif mengakui bahawa dia mempunyai "masalah halusinasi." "Saya fikir sebagai OpenAI, kami bertanggungjawab untuk bertanggungjawab ke atas alatan yang kami keluarkan ke dunia," kata Altman
"Alat AI akan membawa manfaat yang besar kepada manusia, tetapi, anda tahu, alat mempunyai kebaikan dan keburukan," tambahnya. "Kami akan meminimumkan bahaya dan memaksimumkan faedah." penting.
Hinton: Tidak terfikir untuk AI menghapuskan manusiaKebetulan, Hinton juga baru-baru ini memberi amaran tentang bahaya ini.
"The Godfather of Artificial Intelligence" Geoffrey Hinton baru-baru ini berkata dalam temu bual dengan CBS NEWS bahawa kecerdasan buatan berada pada "saat kritikal" dan kemunculan kecerdasan am buatan (AGI) adalah lebih penting daripada yang kita bayangkan.
Pada pandangan Hinton, kemajuan teknologi ChatGPT adalah setanding dengan "elektrik yang memulakan revolusi perindustrian."
Kecerdasan buatan am merujuk kepada keupayaan potensi ejen untuk mempelajari sebarang tugas berfikir yang boleh diselesaikan oleh manusia. Walau bagaimanapun, pada masa ini ia tidak dibangunkan sepenuhnya dan ramai saintis komputer masih menyiasat sama ada ia boleh dilaksanakan.
Dalam temu bual itu, Hinton berkata,
Perkembangan kecerdasan buatan am jauh lebih pantas daripada yang orang fikirkan. Sehingga baru-baru ini, saya fikir ia akan mengambil masa 20 hingga 50 tahun sebelum kita boleh mencapai kecerdasan buatan am. Kini, merealisasikan kecerdasan buatan am mungkin mengambil masa 20 tahun atau kurang.
Apabila ditanya secara khusus tentang kemungkinan kecerdasan buatan menghapuskan manusia, Hinton berkata, "Saya tidak fikir ia tidak dapat difikirkan."Hinton, yang bekerja di Google, mula memberi perhatian kepada kecerdasan buatan lebih 40 tahun yang lalu. Pada masa itu, kecerdasan buatan masih menjadi fiksyen sains di mata ramai orang.
Daripada cara sesetengah saintis cuba memprogramkan kemahiran logik dan penaakulan ke dalam komputer, Hinton berpendapat pendekatan yang lebih baik ialah mensimulasikan otak dan membiarkan komputer menemui kemahiran ini sendiri, dengan membina teknologi rangkaian Neural maya untuk membina sambungan yang betul untuk menyelesaikan tugasan.
"Persoalan besarnya ialah, bolehkah anda mengharapkan rangkaian saraf yang besar untuk belajar dengan mengubah kekuatan sambungannya? Bolehkah anda mengharapkan untuk hanya melihat data, tanpa pengetahuan semula jadi, Belajar bagaimana untuk melakukan sesuatu? Saya rasa ini benar-benar tidak masuk akal."
Perkembangan pesat rangkaian saraf komputer sejak sedekad lalu akhirnya membuktikan bahawa pendekatan Hinton adalah betul. .
Idea pembelajaran mesinnya digunakan untuk mencipta pelbagai output, termasuk foto, video dan audio palsu, Mari mereka yang mengkaji maklumat salah bimbang tentang cara alat ini digunakan.
Orang ramai juga bimbang teknologi ini akan menghilangkan banyak pekerjaan, tetapi mentor Hinton Nick Frosst, pengasas bersama Cohere, percaya bahawa teknologi ini tidak akan menggantikan pekerja, tetapi ia akan Berubah kehidupan mereka.
Keupayaan untuk komputer akhirnya mendapat idea kreatif untuk memperbaiki diri mereka nampaknya boleh dilaksanakan. Kita kena fikir macam mana nak kawal.
Tidak kira betapa kuatnya industri menyambut ketibaan AGI, dan tidak kira berapa lama kita akan menyedari AI, kini kita harus mempertimbangkan dengan teliti akibatnya, yang mungkin termasuk percubaannya untuk menghapuskan AI. bangsa manusia.
Masalah sebenar sekarang ialah teknologi AI yang kita ada dimonopoli oleh kerajaan yang haus kuasa dan perbadanan.
Nasib baik, menurut Hinton, manusia masih mempunyai sedikit ruang bernafas sebelum keadaan menjadi tidak terkawal sepenuhnya.
Hinton berkata, "Kami kini berada di titik perubahan. ChatGPT adalah pakar bodoh dan ia tidak benar-benar memahami kebenaran. Kerana ia cuba mendamaikan perbezaan dan pendapat yang bertentangan dalam data latihannya . Ini berbeza sama sekali daripada orang yang mengekalkan pandangan dunia yang konsisten "
Sebagaimana. untuk isu "AI memusnahkan manusia", Bill Gates telah bimbang selama bertahun-tahun.
Selama bertahun-tahun, Gates telah berkata bahawa teknologi kecerdasan buatan telah menjadi terlalu berkuasa dan boleh menyebabkan peperangan atau digunakan untuk membuat senjata.
Dia mendakwa bahawa bukan sahaja "penjahat 007" yang sebenar mungkin menggunakannya untuk memanipulasi kuasa dunia, tetapi kecerdasan buatan itu sendiri juga mungkin hilang kawalan dan menimbulkan ancaman besar kepada manusia. .
Pada pendapatnya, apabila kecerdasan super dibangunkan, kelajuan pemikirannya akan jauh melebihi manusia. Ia boleh melakukan semua yang boleh dilakukan oleh otak manusia, dan perkara yang paling menakutkan ialah saiz memori dan kelajuan lariannya tidak terhad sama sekali.
Entiti ini, yang dikenali sebagai AI "super", mungkin menetapkan matlamat mereka sendiri tanpa mengetahui perkara yang akan mereka lakukan.
Walaupun bos OpenAI, Google dan Microsoft telah menyatakan kebimbangan tentang AI menghapuskan manusia, Tetapi apabila bercakap tentang LeCun, ketua saintis AI Meta, gayanya tiba-tiba berubah.
Pada pendapat beliau, LLM sekarang tidak cukup bagus apatah lagi memusnahkan manusia.
Minggu lalu, Microsoft yang bangga baru saja menerbitkan kertas kerja yang dipanggil "Sparks of Artificial General Intelligence: Percubaan awal dengan GPT-4", menunjukkan bahawa GPT-4 sudah tersedia Dianggap sebagai versi awal daripada kecerdasan buatan am.
Tetapi LeCun masih berpegang pada pandangan konsistennya: LLM terlalu lemah untuk dikira sebagai AGI sama sekali Satu-satunya cara untuk mencapai AGI ialah dengan "model dunia".
Kami tahu bahawa LeCun telah menjadi peminat model dunia selama beberapa tahun, dan dia sering membincangkan perkara ini dengan netizen di Twitter.
Sebagai contoh, bulan lepas dia menegaskan: "Di jalan menuju AI peringkat manusia, model bahasa besar adalah jalan yang bengkok. Anda tahu, walaupun kucing peliharaan atau anjing peliharaan Mereka semua mempunyai lebih akal dan pemahaman tentang dunia daripada mana-mana LLM."
Baru-baru ini, saintis kognitif Stanford Michael C. Frank bertanya dalam talian: "GPT-3 telah dilatih menggunakan 500 bilion token (kira-kira 3.75x10^11 perkataan). Jadi ini memberi kita kira-kira 4x10^ 11 perkataan. Kedua-dua PaLM dan Chinchilla dilatih dalam kira-kira 10^12 perkataan Kami tidak tahu bagaimana angka ini dibandingkan dengan manusia
LeCun segera memajukan siaran Frank, mempersoalkan keupayaan LLM: manusia? tidak perlu belajar daripada 1 trilion perkataan untuk mencapai kecerdasan manusia namun, LLM tidak boleh melakukan ini.
Berbanding manusia, apa sebenarnya kekurangan mereka?
Gambar yang dibuat oleh Frank, Membandingkan skala input model bahasa besar dan pembelajaran bahasa manusia
Sebelum ini, LeCun menegaskan dalam perbahasan yang disertainya bahawa tiada otak akan dapat melakukan ini dalam 5 tahun mulai sekarang orang biasa akan menggunakan model autoregresif.
Anda tahu, ChatGPT yang popular hari ini ialah bahasa autoregresif yang menggunakan pembelajaran mendalam untuk menghasilkan teks.
Berani menafikan model teratas semasa dengan cara ini, kata-kata LeCun sememangnya provokatif.
Sehubungan itu, beliau membuat satu lagi penjelasan bahawa akan ada model bahasa dalam masa 5 tahun, tetapi ia tidak akan autoregresif. Oleh kerana model autoregresif tidak boleh dikawal, dan apabila lebih banyak token dijana, masalah perbezaan eksponen akan berlaku.
Saya mesti mengulangi: 1. Autoregressive LLM berguna, terutamanya sebagai alat untuk menulis, pengaturcaraan.
2. Mereka sering menghasilkan halusinasi.
3. Pemahaman mereka tentang dunia fizikal sangat primitif.
4. Kebolehan merancang mereka sangat primitif.
Untuk LLM autoregresif, yang merupakan proses penyebaran yang meningkat secara eksponen, LeCun juga memberikan hujahnya sendiri: Anggapkan bahawa e dijana secara sewenang-wenangnya. kebarangkalian bahawa token boleh membawa kita jauh dari set jawapan yang betul, maka kebarangkalian bahawa jawapan yang panjang n akhirnya akan menjadi jawapan yang betul ialah P (betul) = (1-e)^n.
Menurut algoritma ini, ralat akan terkumpul secara beransur-ansur dan kebarangkalian jawapan yang betul akan berkurangan secara eksponen. Masalah boleh dikurangkan dengan membuat e lebih kecil (melalui latihan), tetapi adalah mustahil untuk menghapuskan masalah sepenuhnya.
Untuk menyelesaikan masalah ini, adalah perlu untuk menghentikan LLM daripada melakukan autoregresi sambil mengekalkan kelancaran model.
Dalam kes ini, bagaimana untuk memecahkannya?
Di sini, LeCun sekali lagi mengeluarkan "model dunia"nya dan menunjukkan bahawa ini adalah hala tuju yang paling menjanjikan untuk pembangunan LLM.
Makalah 2022 LeCun A Path Towards Autonomous Machine Intelligence menghuraikan idea untuk membina model dunia.
Jika anda ingin membina seni bina kognitif yang mampu membuat penaakulan dan perancangan, ia perlu terdiri daripada 6 modul, termasuk konfigurator, persepsi, model dunia, kos, pelakon, dan pendek- ingatan jangka.
Tetapi tidak dapat dinafikan bahawa ChatGPT telah benar-benar mencetuskan "nugget emas AI" di Silicon Valley.
Kitaran gembar-gembur LLMS berubah begitu cepat, semua orang berada pada titik yang berbeza pada lengkung dan semua orang gila.
Mengenai amaran Hinton, profesor Universiti New York Marcus Si juga bersetuju.
"Adakah lebih penting bahawa manusia hampir mati, atau adakah lebih penting untuk mengekod dengan lebih pantas dan bersembang dengan robot?"
Marcus percaya walaupun AGI masih terlalu jauh, LLM sudah sangat berbahaya, dan perkara yang paling berbahaya ialah AI kini memudahkan pelbagai aktiviti jenayah.
"Dalam era ini, kita perlu bertanya kepada diri sendiri setiap hari, apakah jenis AI yang kita mahukan? Kadang-kadang Ia okey untuk pergi lebih perlahan, kerana setiap langkah kecil yang kita ambil akan memberi impak yang mendalam pada masa depan.”
Atas ialah kandungan terperinci Amaran "pembunuhan AI" mencetuskan kontroversi dalam kalangan akademik LeCun terus terang berkata: Tidak sehebat anjing saya.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!