Rumah >Peranti teknologi >AI >Pakar AI memberi amaran, tetapi yang manakah lebih patut dibimbangkan, masalah segera atau risiko memusnahkan manusia?

Pakar AI memberi amaran, tetapi yang manakah lebih patut dibimbangkan, masalah segera atau risiko memusnahkan manusia?

WBOY
WBOYke hadapan
2023-05-04 16:52:071285semak imbas

Pakar AI memberi amaran, tetapi yang manakah lebih patut dibimbangkan, masalah segera atau risiko memusnahkan manusia?

Menurut berita pada 4 Mei, "orang besar" yang membina teknologi kecerdasan buatan asas hari ini telah mengeluarkan amaran, mengatakan bahawa teknologi ini berpotensi berbahaya. Walau bagaimanapun, mereka pada masa ini tidak mempunyai konsensus mengenai bahaya AI atau langkah berjaga-jaga yang perlu diambil.

Geoffrey Hinton, yang dikenali sebagai "Godfather of Artificial Intelligence," baru sahaja mengumumkan peletakan jawatannya daripada Google. Dia menyesali beberapa kerjanya kerana dia takut mesin akan menjadi lebih pintar daripada manusia, menjejaskan kelangsungan hidup manusia.

Yoshua Bengio, seorang profesor di Universiti Montreal, adalah seorang lagi perintis dalam bidang kecerdasan buatan. Beliau, bersama Hinton dan Yann LeCun, ketua saintis kecerdasan buatan Meta, menerima Anugerah Turing 2018 untuk penemuan dalam rangkaian saraf tiruan yang penting untuk pembangunan aplikasi kecerdasan buatan hari ini seperti ChatGPT. Pada hari Rabu, Bengio berkata dia "sangat bersetuju" dengan kebimbangan Hinton tentang chatbots seperti ChatGPT dan teknologi berkaitannya, tetapi dia bimbang bahawa hanya mengatakan "kami sudah ditakdirkan" tidak akan menyelesaikan masalah itu.

Bengio menambah: "Perbezaan utama ialah dia (Hinton) seorang yang pesimis dan saya lebih optimistik. Saya rasa bahaya ini sangat serius, baik jangka pendek mahupun jangka panjang. , bukan sahaja keperluan perlu dipandang serius oleh sebilangan kecil penyelidik, tetapi juga perlu diambil serius oleh kerajaan dan orang ramai.”

Terdapat banyak tanda bahawa kerajaan sedang mendengar suara semua pihak. Rumah Putih telah memanggil Ketua Pegawai Eksekutif Google, Microsoft dan pembuat ChatGPT OpenAI untuk perbincangan "terus terang" dengan Naib Presiden AS Kamala Harris pada hari Khamis memfokuskan kepada cara mengurangkan risiko jangka pendek dan jangka panjang teknologi mereka. Penggubal undang-undang Eropah juga mempercepatkan rundingan untuk meluluskan peraturan kawal selia AI yang komprehensif.

Sesetengah orang bimbang bahawa mesin super pintar yang terlalu menggembar-gembur yang belum wujud dan membayangkan bahaya paling menakutkan yang boleh mereka sebabkan akan mengalih perhatian orang ramai daripada membangunkan perlindungan praktikal untuk produk kecerdasan buatan semasa, dan Produk ini selalunya tidak dikawal selia.

Bagi Margaret Mitchell, bekas ketua pasukan etika AI Google, dia kecewa kerana Hinton tidak bersuara sepanjang dekadnya menerajui Google, terutamanya Ini berlaku selepas saintis hitam terkemuka Timnit Gebru dipecat 2020. Gebru mengkaji bahaya model bahasa besar sebelum ia dikomersialkan secara meluas menjadi produk seperti ChatGPT dan Google Bard.

Selepas Gebru pergi, Mitchell juga terpaksa meninggalkan Google. Dia berkata: "Dia (Gebru) bernasib baik kerana berada di luar lingkungan komunikasi yang mendiskriminasi, bahasa kebencian, merendahkan wanita dan pornografi tanpa persetujuan, yang semuanya berbahaya kepada orang terpinggir dalam bidang teknologi. Orang ramai. Dia melangkau semua itu perkara dan boleh bimbang tentang perkara yang lebih jauh. Selama bertahun-tahun, beliau telah menyatakan kebimbangan mengenai risiko jangka pendek kecerdasan buatan, termasuk ketidakstabilan pasaran pekerjaan, bahaya senjata autonomi dan set data berat sebelah, antara lain.

Tetapi baru-baru ini, kebimbangan ini menjadi lebih serius, mendorong Bengio untuk bergabung tenaga dengan Ketua Pegawai Eksekutif Tesla Elon Musk dan pengasas bersama Apple Steve Wozniak Saintis komputer dan pemimpin perniagaan teknologi lain, termasuk Steve Wozniak, telah meminta enam -Moratorium bulan ke atas pembangunan sistem kecerdasan buatan yang lebih berkuasa daripada model terbaru OpenAI, GPT-4.

Bengio berkata pada hari Rabu bahawa dia percaya model bahasa kecerdasan buatan terbaharu telah melepasi "ujian Turing." Ujian Turing, dinamakan sempena kaedah yang dibangunkan pada tahun 1950 oleh pemecah kod British dan perintis AI Alan Turing, direka untuk mengukur apabila kecerdasan buatan menjadi tidak dapat dibezakan daripada manusia, sekurang-kurangnya pada permukaan.

Bengio berkata: "Ini adalah satu peristiwa penting, tetapi jika kita tidak berhati-hati, ia boleh membawa akibat yang serius. Kebimbangan utama saya ialah bagaimana teknologi ini akan dieksploitasi untuk melancarkan serangan siber dan menyebarkan maklumat yang salah serta Tujuan jahat yang lain. Anda boleh bercakap dengan sistem ini dan fikir anda sedang berinteraksi dengan orang sebenar. Mereka sukar untuk diberitahu."

Penyelidik mempertikaikan sama ada sistem bahasa kecerdasan buatan semasa boleh menjadi lebih pintar daripada manusia. Terdapat banyak batasan, seperti. sebagai kecenderungan untuk mengada-adakan maklumat.

Aidan Gomez ialah salah seorang pengarang bersama kertas kerja seminal 2017 yang memperkenalkan teknik penukar yang dipanggil untuk meningkatkan prestasi sistem pembelajaran mesin, khususnya Belajar daripada petikan teks. Gomez, ketika itu baru berusia 20 tahun, adalah seorang pelatih di Google. Dia masih ingat berbaring di atas sofa di ibu pejabat syarikat di California sekitar jam 3 pagi ketika pasukannya menghantar kertas itu.

Gomez masih ingat seorang rakan sekerja memberitahunya, "Ini akan memberi impak yang besar." Sejak itu, penyelidikan mereka telah membantu memacu kemunculan sistem baharu yang boleh menjana artikel yang menyerupai artikel tulisan manusia.

Enam tahun kemudian, Gomez kini menjadi CEO Cohere, syarikat kecerdasan buatan yang diasaskannya. Dia bersemangat tentang potensi aplikasi sistem ini, tetapi dia juga terganggu dengan ancaman terhadap teknologi. Keupayaan sebenar sistem ini terputus daripada realiti dan bergantung pada kuasa imaginasi dan penaakulan yang luar biasa, katanya.

Gomez berkata: “Idea bahawa model ini akan menguasai senjata nuklear dan melancarkan beberapa jenis peristiwa peringkat kepupusan adalah tidak berasas dan tidak membantu usaha dasar yang benar-benar pragmatik yang cuba melakukan kebaikan ”

Atas ialah kandungan terperinci Pakar AI memberi amaran, tetapi yang manakah lebih patut dibimbangkan, masalah segera atau risiko memusnahkan manusia?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam