Rumah  >  Artikel  >  Peranti teknologi  >  Perdebatan hangat di Silicon Valley: Adakah AI akan memusnahkan manusia?

Perdebatan hangat di Silicon Valley: Adakah AI akan memusnahkan manusia?

王林
王林ke hadapan
2023-05-30 23:18:001299semak imbas

Perdebatan hangat di Silicon Valley: Adakah AI akan memusnahkan manusia?

Berita pada 22 Mei, memandangkan teknologi baharu seperti kecerdasan buatan generatif telah menjadi kegilaan baharu dalam dunia teknologi, perdebatan sama ada kecerdasan buatan akan memusnahkan umat manusia semakin rancak. Seorang pemimpin teknologi terkemuka telah memberi amaran bahawa kecerdasan buatan boleh mengambil alih dunia. Penyelidik dan eksekutif lain mengatakan idea itu adalah fiksyen sains.

Pada perbicaraan Kongres A.S. minggu lepas, Sam Altman, Ketua Pegawai Eksekutif pemula kecerdasan buatan OpenAI, dengan jelas mengingatkan semua orang bahawa teknologi yang didedahkan oleh syarikat itu mempunyai risiko keselamatan .

Altman memberi amaran bahawa teknologi kecerdasan buatan seperti ChatGPT chatbots boleh membawa kepada masalah seperti disinformasi dan manipulasi berniat jahat, dan meminta peraturan.

Beliau berkata kecerdasan buatan boleh "menyebabkan bahaya yang serius kepada dunia."

Kesaksian Altman sebelum Kongres muncul ketika perdebatan sama ada kecerdasan buatan akan mendominasi dunia bertukar menjadi arus perdana, dengan bahagian yang semakin meningkat di seluruh Lembah Silikon dan mereka yang berusaha untuk mempromosikan teknologi yang besar.

Sesetengah orang pernah percaya bahawa tahap kecerdasan mesin mungkin tiba-tiba mengatasi manusia dan memutuskan untuk memusnahkan manusia Kini idea sampingan ini mendapat sokongan daripada lebih ramai orang. Sesetengah saintis terkemuka malah percaya bahawa masa yang diperlukan untuk komputer mengatasi manusia dan mengawalnya akan dipendekkan.

Tetapi ramai penyelidik dan jurutera mengatakan bahawa walaupun ramai orang bimbang tentang kemunculan kecerdasan buatan pembunuh seperti Skynet dalam filem "Terminator" secara realiti, kebimbangan ini tidak berdasarkan alasan yang logik. Sebaliknya ia mengalihkan perhatian daripada masalah sebenar yang telah ditimbulkan oleh teknologi ini, termasuk yang diterangkan oleh Altman dalam keterangannya. Teknologi AI hari ini mengelirukan hak cipta, memburukkan lagi kebimbangan mengenai privasi dan pengawasan digital, dan boleh digunakan untuk meningkatkan keupayaan penggodam untuk melanggar pertahanan rangkaian.

Google, Microsoft dan OpenAI semuanya telah mengeluarkan teknologi kecerdasan buatan terobosan secara terbuka. Teknologi ini boleh menjalankan perbualan yang rumit dengan pengguna dan menjana imej berdasarkan gesaan teks mudah. Perdebatan mengenai kecerdasan buatan jahat telah menjadi hangat.

"Ini bukan fiksyen sains," kata Geoffrey Hinton, bapa baptis kecerdasan buatan dan bekas pekerja Google. Hinton berkata kecerdasan buatan yang lebih pintar daripada manusia boleh muncul dalam tempoh lima hingga 20 tahun, berbanding anggarannya sebelum ini 30 hingga 100 tahun.

"Ia seperti makhluk asing telah mendarat di Bumi atau akan tiba," katanya. "Kami benar-benar tidak boleh menerimanya kerana mereka bercakap dengan lancar, mereka berguna, mereka menulis puisi dan mereka membalas surat yang membosankan. Tetapi mereka benar-benar asing

Namun, dalam teknologi besar Dalam syarikat , ramai jurutera yang terlibat rapat dengan teknologi tidak fikir AI menggantikan manusia adalah sesuatu yang perlu kita risaukan sekarang.

Sara Hooker, pengarah Cohere untuk AI, makmal penyelidikan yang dimiliki oleh syarikat permulaan kecerdasan buatan Cohere dan bekas penyelidik Google, berkata: "Antara penyelidik yang terlibat secara aktif dalam disiplin ini, beri perhatian kepada risiko dunia sebenar semasa Terdapat lebih ramai orang daripada mereka yang bimbang sama ada terdapat risiko kepada kelangsungan hidup manusia ”

Terdapat banyak risiko kehidupan sebenar, seperti robot yang telah dilatih untuk menerbitkan kandungan berbahaya akan memperdalam prasangka dan diskriminasi. ; sebahagian besar kecerdasan buatan Semua data latihan adalah dalam bahasa Inggeris, terutamanya dari Amerika Utara atau Eropah, yang mungkin menjadikan Internet lebih menyimpang daripada bahasa dan budaya kebanyakan orang ini juga sering membuat maklumat palsu menyamar sebagai fakta; dalam beberapa kes, mereka bahkan boleh masuk ke dalam gelung perbualan yang tidak terhingga yang menyerang pengguna. Di samping itu, orang ramai tidak jelas tentang kesan riak teknologi ini Semua industri sedang bersedia untuk gangguan atau perubahan yang mungkin dibawa oleh kecerdasan buatan Malah pekerjaan bergaji tinggi seperti peguam atau doktor akan diganti.

Sesetengah orang juga percaya bahawa kecerdasan buatan boleh membahayakan manusia pada masa hadapan atau malah mengawal seluruh masyarakat dalam beberapa cara. Walaupun risiko wujud kepada manusia kelihatan lebih teruk, ramai yang percaya ia lebih sukar untuk diukur dan kurang konkrit.

"Terdapat sekumpulan orang yang menganggap ini hanyalah algoritma. Mereka hanya mengulangi apa yang mereka lihat dalam talian, kata CEO Google Sundar Pichai dalam temu bual pada April tahun ini: "Terdapat juga pandangan itu." algoritma ini muncul dengan sifat baharu, kreativiti, penaakulan dan keupayaan perancangan." "Kita perlu menangani perkara ini dengan berhati-hati."

Perdebatan ini berpunca daripada penemuan berterusan dalam teknologi pembelajaran mesin dalam bidang sains komputer sejak 10 tahun yang lalu. Pembelajaran mesin mencipta perisian dan teknologi yang boleh mengekstrak cerapan baru daripada sejumlah besar data tanpa arahan yang jelas daripada manusia. Teknologi ini terdapat di mana-mana dalam aplikasi daripada algoritma media sosial kepada enjin carian kepada program pengecaman imej.

Tahun lepas, OpenAI dan beberapa syarikat kecil lain mula mengeluarkan alatan menggunakan teknologi pembelajaran mesin baharu: kecerdasan buatan generatif. Model bahasa yang dipanggil besar ini, yang melatih dirinya sendiri pada trilion foto dan ayat yang dikikis daripada web, boleh menjana imej dan teks berdasarkan gesaan mudah, menjalankan perbualan yang rumit dengan pengguna dan menulis kod komputer.

Anthony Aguirre, pengarah eksekutif Institut Masa Depan Kehidupan, berkata syarikat besar berlumba-lumba untuk membangunkan mesin yang semakin pintar dengan sedikit atau tiada peraturan. The Future of Life Institute telah ditubuhkan pada 2014 untuk mengkaji risiko kepada masyarakat. Dengan pembiayaan daripada Ketua Pegawai Eksekutif Tesla Elon Musk, institut itu mula mengkaji kemungkinan kecerdasan buatan memusnahkan manusia pada tahun 2015. Jika AI memperoleh keupayaan penaakulan yang lebih baik daripada manusia, mereka akan cuba mencapai kawalan diri, kata Aguirre. Ini adalah sesuatu yang perlu dibimbangkan oleh orang ramai, sama seperti masalah sebenar yang wujud sekarang.

Dia berkata: "Bagaimana untuk menghalang mereka daripada menyimpang dari landasan akan menjadi semakin rumit." , Ah Gire membantu menulis surat terbuka yang menyeru agar moratorium enam bulan melatih model kecerdasan buatan baharu. Surat terbuka ini menerima sejumlah 27,000 tandatangan sebagai sokongan kepada Yoshua Bengio, seorang penyelidik kecerdasan buatan kanan yang memenangi anugerah tertinggi dalam sains komputer pada 2018, dan Emma, ​​​​CEO salah satu syarikat permulaan kecerdasan buatan yang paling berpengaruh. Emad Mostaque adalah antara mereka.

Musk sudah pasti yang paling menarik perhatian di antara mereka. Dia membantu mencipta OpenAI dan kini sibuk membina syarikat AI sendiri, baru-baru ini melabur dalam peralatan komputer mahal yang diperlukan untuk melatih model AI.

Selama bertahun-tahun Musk percaya bahawa manusia harus lebih berhati-hati tentang akibat membangunkan kecerdasan buatan super. Dalam temu bual semasa mesyuarat pemegang saham tahunan Tesla minggu lalu, Musk berkata dia pada mulanya membiayai OpenAI kerana dia merasakan pengasas bersama Google, Larry Page adalah "lebih angkuh" tentang ancaman kecerdasan buatan.

Zhihu Quora versi Amerika juga sedang membangunkan model kecerdasan buatannya sendiri. Ketua Pegawai Eksekutif syarikat Adam D'Angelo tidak menandatangani surat terbuka itu. Apabila bercakap mengenai surat terbuka, dia berkata, "Orang ramai mempunyai motivasi yang berbeza apabila membuat cadangan ini

CEO OpenAI Altman juga tidak meluluskan kandungan surat terbuka itu. Dia berkata bahawa dia bersetuju dengan bahagian surat terbuka itu, tetapi kekurangan keseluruhan "butiran teknikal" bukanlah cara yang betul untuk mengawal kecerdasan buatan. Altman berkata pada pendengaran Selasa lepas mengenai kecerdasan buatan bahawa pendekatan syarikatnya adalah untuk mendapatkan alat AI kepada umum lebih awal untuk mengenal pasti dan menyelesaikan masalah sebelum teknologi itu menjadi lebih berkuasa.

Tetapi terdapat perdebatan yang semakin meningkat dalam dunia teknologi mengenai robot pembunuh. Beberapa kritikan paling keras datang daripada penyelidik yang telah mengkaji kelemahan teknologi selama bertahun-tahun.

Pada tahun 2020, penyelidik Google Timnit Gebru dan Margaret Mitchell bekerjasama dengan sarjana Universiti Washington Emily M. Bender (Emily M. Bender dan Angelina McMillan-Major mengarang bersama kertas kerja. Mereka berhujah bahawa peningkatan keupayaan model bahasa besar untuk meniru manusia meningkatkan risiko bahawa orang akan menganggap mereka mempunyai perasaan.

Sebaliknya, mereka berpendapat bahawa model ini harus difahami sebagai "parroting rawak," atau hanya sangat pandai meramal perkataan yang akan datang seterusnya dalam ayat semata-mata berdasarkan kebarangkalian, tanpa perlu memahami apa yang mereka katakan . Pengkritik lain memanggil model bahasa besar sebagai "pelengkapan automatik" atau "enema pengetahuan."

Mereka mendokumentasikan secara terperinci cara model bahasa yang besar secara skrip boleh menjana kandungan seksis dan kandungan berbahaya yang lain. Gebru berkata kertas itu ditindas oleh Google. Selepas dia berkeras untuk menerbitkan artikel itu secara terbuka, Google memecatnya. Beberapa bulan kemudian, syarikat itu memecat Mitchell sekali lagi.

Empat pengarang bersama kertas kerja ini juga menulis surat sebagai jawapan kepada surat terbuka yang ditandatangani oleh Musk dan lain-lain.

"Adalah berbahaya untuk mengalihkan perhatian kami dengan utopia atau kiamat AI fantasi," kata mereka "Sebaliknya, kita harus menumpukan pada amalan eksploitasi yang sangat nyata dan nyata yang sedang menumpukan usaha untuk memburukkan lagi ketidaksamaan sosial.

Google enggan mengulas mengenai pemecatan Gebru pada masa itu, tetapi berkata masih terdapat ramai penyelidik yang mengusahakan kecerdasan buatan yang bertanggungjawab dan beretika.

"Tidak dinafikan bahawa kecerdasan buatan moden sangat berkuasa, tetapi itu tidak bermakna ia menimbulkan ancaman yang pasti kepada kelangsungan hidup manusia," kata Hook, pengarah penyelidikan kecerdasan buatan di Cohere.

Pada masa ini, banyak perbincangan tentang kecerdasan buatan yang melepaskan diri daripada kawalan manusia tertumpu pada cara ia dapat mengatasi hadnya sendiri dengan cepat, sama seperti Skynet dalam The Terminator.

"Kebanyakan teknologi dan risiko yang wujud dalam teknologi berkembang dari semasa ke semasa," kata Hook "Kebanyakan risiko diburukkan lagi oleh pengehadan teknologi yang wujud pada masa ini

Tahun lepas, Google dibuang oleh penyelidik kecerdasan buatan Blake Lemoine. Dia pernah menyatakan dalam temu bual bahawa dia yakin bahawa model kecerdasan buatan LaMDA Google mempunyai keupayaan untuk melihat. Pada masa itu, Lemon ditegur oleh ramai pihak dalam industri. Tetapi setahun kemudian, ramai orang dalam komuniti teknologi mula menerima pandangannya.

Hinton, bekas penyelidik Google, berkata bahawa baru-baru ini dia mengubah pandangannya tentang potensi bahaya teknologi ini selepas menggunakan model kecerdasan buatan terkini. Hinton bertanya soalan kompleks program komputer yang, pada pandangannya, memerlukan model AI untuk memahami permintaannya secara kasar daripada hanya meramalkan kemungkinan jawapan berdasarkan data latihan.

Pada Mac tahun ini, penyelidik Microsoft berkata semasa mengkaji model terbaru OpenAI GPT4, mereka memerhatikan "percikan kecerdasan buatan umum," yang merujuk kepada kecerdasan buatan yang boleh berfikir secara bebas seperti manusia.

Microsoft telah membelanjakan berbilion dolar bekerja dengan OpenAI untuk membangunkan bot sembang Bing. Skeptik percaya bahawa Microsoft sedang membina imej awamnya di sekitar teknologi kecerdasan buatan. Teknologi ini sentiasa dianggap lebih maju daripada yang sebenarnya, dan Microsoft mempunyai banyak keuntungan daripadanya.

Penyelidik Microsoft percaya bahawa teknologi ini telah membangunkan pemahaman spatial dan visual dunia berdasarkan kandungan teks yang telah dilatih. GPT4 boleh melukis unicorn secara automatik dan menerangkan cara menyusun objek rawak, termasuk telur, di atas satu sama lain supaya telur tidak pecah.

Pasukan penyelidik Microsoft menulis: “Selain menguasai bahasa, GPT-4 juga boleh menyelesaikan pelbagai masalah baharu yang kompleks melibatkan matematik, pengaturcaraan, penglihatan, perubatan, undang-undang, psikologi dan bidang lain, dan tidak memerlukan Sebarang petua istimewa." Mereka membuat kesimpulan bahawa keupayaan AI adalah setanding dengan manusia dalam banyak bidang.

Walau bagaimanapun, salah seorang penyelidik mengakui bahawa walaupun penyelidik kecerdasan buatan telah cuba membangunkan piawaian kuantitatif untuk menilai kecerdasan mesin, cara untuk mentakrifkan "kepintaran" masih sangat rumit.

Dia berkata, “Mereka semua bermasalah atau kontroversi.”

Atas ialah kandungan terperinci Perdebatan hangat di Silicon Valley: Adakah AI akan memusnahkan manusia?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam