Rumah >Peranti teknologi >AI >Adakah kecerdasan buatan akan membawa kepada kematian manusia? Pakar mengatakan mereka lebih bimbang tentang maklumat salah dan manipulasi pengguna

Adakah kecerdasan buatan akan membawa kepada kematian manusia? Pakar mengatakan mereka lebih bimbang tentang maklumat salah dan manipulasi pengguna

王林
王林ke hadapan
2023-06-04 22:40:011611semak imbas

Adakah kecerdasan buatan akan membawa kepada kematian manusia? Pakar mengatakan mereka lebih bimbang tentang maklumat salah dan manipulasi pengguna

Berita pada 4 Jun, dengan perkembangan pesat dan popularisasi teknologi kecerdasan buatan, ramai orang dalam industri bimbang bahawa kecerdasan buatan tanpa had boleh membawa kepada kemusnahan manusia. Walau bagaimanapun, pakar mengatakan bahawa kesan negatif terbesar kecerdasan buatan tidak mungkin menjadi adegan perang nuklear dalam filem fiksyen sains Sebaliknya, ia lebih cenderung menjadi persekitaran sosial yang semakin merosot yang disebabkan oleh maklumat palsu dan manipulasi pengguna.

Berikut ialah terjemahannya:

Dalam beberapa bulan kebelakangan ini, industri semakin bimbang tentang kecerdasan buatan. Hanya minggu ini, lebih daripada 300 pemimpin industri mengeluarkan surat terbuka bersama amaran bahawa kecerdasan buatan boleh membawa kepada kepupusan manusia dan bahawa kecerdasan buatan harus dianggap serius sebagai "wabak dan perang nuklear."

Istilah seperti "apocalypse kecerdasan buatan" sentiasa mengingatkan imej robot yang memerintah dunia dalam filem fiksyen sains, tetapi apakah akibatnya jika membiarkan kecerdasan buatan berkembang? Pakar mengatakan bahawa realiti mungkin tidak naik dan turun sebagai plot filem Ia tidak akan menjadi kecerdasan buatan melancarkan bom nuklear, tetapi kemerosotan beransur-ansur persekitaran sosial asas.

"Saya rasa orang ramai tidak perlu risau tentang AI menjadi buruk, atau AI mempunyai keinginan jahat," kata Jessica Newman, pengarah Inisiatif Keselamatan Kepintaran Buatan di Universiti California, Berkeley "Bahayanya datang daripada sesuatu yang lebih mudah, iaitu orang mungkin memprogramkan AI untuk melakukan perkara yang berbahaya, atau akhirnya kami menyepadukan sistem AI yang sememangnya tidak tepat ke dalam lebih banyak bidang masyarakat, menyebabkan Hurt ”

Bukan bermakna kami tidak perlu risau tentang kecerdasan buatan. Walaupun senario kiamat tidak mungkin, AI yang berkuasa mempunyai keupayaan untuk menggugat kestabilan masyarakat dalam bentuk memburukkan lagi masalah maklumat salah, memanipulasi pengguna manusia dan membawa perubahan dramatik dalam pasaran buruh.

Walaupun teknologi AI telah wujud selama beberapa dekad, populariti model pembelajaran bahasa seperti ChatGPT telah memburukkan lagi kebimbangan yang telah lama wujud. Sementara itu, syarikat teknologi sedang berebut-rebut untuk memasukkan kecerdasan buatan ke dalam produk mereka, bersaing antara satu sama lain dan mencipta pelbagai sakit kepala, kata Newman.

"Saya sangat bimbang tentang laluan yang kami lalui sekarang," katanya "Kami berada dalam masa yang sangat berbahaya untuk bidang kecerdasan buatan secara keseluruhan kerana sistem ini, sementara mereka mungkin kelihatan istimewa, masih sangat Ia tidak tepat dan mempunyai kelemahan yang wujud.”

Pakar yang ditemu bual berkata bahawa mereka paling bimbang tentang banyak aspek.

Ralat dan maklumat salah

Banyak bidang telah pun memulakan apa yang dipanggil revolusi kecerdasan buatan. Teknologi pembelajaran mesin, yang menyokong algoritma suapan berita media sosial, telah lama dituduh memburukkan lagi masalah seperti kecenderungan yang wujud dan maklumat salah.

Pakar memberi amaran bahawa masalah yang tidak dapat diselesaikan ini hanya akan menjadi lebih teruk apabila model AI berkembang. Senario terburuk mungkin menjejaskan pemahaman orang ramai tentang kebenaran dan maklumat yang sah, yang membawa kepada lebih banyak insiden berdasarkan pembohongan. Pakar berkata peningkatan maklumat salah dan maklumat salah boleh mencetuskan kekacauan sosial yang lebih lanjut.

"Boleh dikatakan bahawa kemelut media sosial adalah kali pertama kami menemui AI yang benar-benar bodoh kerana sistem pengesyor adalah model pembelajaran mesin yang mudah," kata Ketua Pegawai Eksekutif dan pengasas bersama platform sains data Anaconda Wang. "Kami benar-benar gagal dengan teruk."

Peter Wang menambah bahawa kesilapan ini boleh menyebabkan sistem jatuh ke dalam kitaran ganas yang tidak berkesudahan, kerana model pembelajaran bahasa juga dilatih berdasarkan maklumat yang salah untuk menyediakan model masa hadapan . Apa yang dicipta adalah satu lagi set data yang cacat. Ini boleh membawa kepada kesan "model kanibalisme", di mana model masa hadapan dipengaruhi secara kekal oleh berat sebelah yang dikuatkan oleh output model lepas.

Maklumat salah dan maklumat salah yang mudah mengelirukan orang ramai diperkuatkan oleh kecerdasan buatan, kata pakar. Model bahasa besar seperti ChatGPT terdedah kepada fenomena yang dipanggil "halusinasi", di mana mereka berulang kali mengada-adakan dan mengada-adakan maklumat palsu. Kajian oleh pemerhati industri berita NewsGuard telah mendapati bahawa banyak daripada berpuluh-puluh tapak "berita" dalam talian yang bahannya ditulis sepenuhnya oleh kecerdasan buatan mengandungi ketidaktepatan.

Ketua Pegawai Eksekutif bersama NewsGuard Gordon Crovitz dan Steven Brill berkata sistem sedemikian boleh dieksploitasi oleh pelakon jahat untuk sengaja menyebarkan ralat pada maklumat skala.

Kravitz berkata: "Sesetengah pelakon yang berniat jahat boleh membuat kenyataan palsu dan kemudian menggunakan kesan pengganda sistem ini untuk menyebarkan maklumat yang salah secara besar-besaran "Ada yang mengatakan bahaya kecerdasan buatan adalah dibesar-besarkan, tetapi dalam maklumat berita "Dari segi daripada potensi bahaya pada skala yang lebih besar, maklumat salah adalah," kata Rebecca Finlay dari Perkongsian bukan untung global mengenai AI. Aspek kecerdasan buatan yang paling berkemungkinan menyebabkan kemudaratan kepada individu juga merupakan risiko tertinggi. "Persoalannya ialah bagaimana kami mencipta ekosistem yang membolehkan kami memahami perkara yang sebenar?" "Dan bagaimana kami mengesahkan perkara yang kami lihat dalam talian ?"

Manipulasi pengguna yang berniat jahat

Walaupun kebanyakan pakar mengatakan maklumat yang salah ialah kebimbangan yang paling segera dan umum, terdapat persoalan tentang sejauh mana teknologi ini mungkin memainkan peranan dalam fikiran pengguna Masih terdapat banyak kontroversi sama ada tingkah laku itu mempunyai kesan negatif.

Malah, kebimbangan ini telah membawa banyak tragedi. Seorang lelaki di Belgium dilaporkan membunuh diri selepas digalakkan berbuat demikian oleh chatbot. Terdapat juga chatbot yang memberitahu pengguna untuk berpisah dengan pasangannya, atau meminta pengguna yang mengalami gangguan makan untuk menurunkan berat badan.

Secara reka bentuk, kerana chatbots berkomunikasi dengan pengguna dalam format perbualan, ia mungkin mewujudkan lebih kepercayaan, kata Newman.

"Model bahasa yang besar amat mampu memujuk atau memanipulasi orang untuk mengubah kepercayaan atau tingkah laku mereka secara halus," katanya. "Kesepian dan kesihatan mental sudah menjadi isu besar di seluruh dunia, dan kita perlu melihat kesan kognitif yang akan diberikan oleh chatbots ke atas dunia

Oleh itu, pakar lebih bimbang tentang AI chatbots mendapat kesedaran Keupayaan tidak." melebihi pengguna manusia, tetapi model bahasa besar di belakang mereka mungkin memanipulasi orang untuk menyebabkan kemudaratan kepada diri mereka sendiri yang tidak akan mereka lakukan. Newman berkata ini terutama berlaku untuk model bahasa yang beroperasi pada model hasil pengiklanan, cuba memanipulasi gelagat pengguna supaya mereka kekal di platform selama mungkin.

Newman berkata: "Dalam banyak kes, kemudaratan yang ditimbulkan kepada pengguna bukan kerana mereka mahu berbuat demikian, tetapi akibat daripada kegagalan sistem mematuhi protokol keselamatan

Newman menambah , sifat seperti manusia chatbots menjadikan pengguna sangat terdedah kepada manipulasi.

Dia berkata: "Jika anda bercakap dengan sesuatu yang menggunakan kata ganti nama diri pertama tentang perasaan dan situasinya sendiri, walaupun anda tahu ia tidak sebenar, ia masih lebih cenderung untuk mencetuskan perasaan bahawa ia seperti manusia. Tanggapan itu memudahkan orang untuk mempercayainya "Model bahasa membuatkan orang bersedia untuk mempercayainya dan menganggapnya sebagai kawan, bukan alat. Satu lagi masalah buruh yang telah lama wujud automasi digital akan menggantikan sejumlah besar pekerjaan manusia. Beberapa kajian menyimpulkan bahawa AI akan menggantikan 85 juta pekerjaan di seluruh dunia menjelang 2025 dan lebih daripada 300 juta pekerjaan pada masa hadapan.

Terdapat banyak industri dan kedudukan yang terjejas oleh kecerdasan buatan, termasuk penulis skrip dan saintis data. Hari ini, AI boleh lulus peperiksaan peguam sama seperti seorang peguam sebenar dan boleh menjawab soalan kesihatan dengan lebih baik daripada doktor sebenar.

Pakar telah memberi amaran bahawa peningkatan kecerdasan buatan boleh membawa kepada pengangguran besar-besaran dan ketidakstabilan sosial.

Peter Wang memberi amaran bahawa pemberhentian secara besar-besaran akan berlaku dalam masa terdekat, dengan "banyak pekerjaan berisiko" dan bahawa terdapat sedikit rancangan untuk menangani akibatnya.

"Di Amerika Syarikat, tidak ada rangka kerja bagaimana orang boleh bertahan apabila mereka kehilangan pekerjaan," katanya "Itu akan membawa kepada banyak huru-hara dan pergolakan. Bagi saya, itulah yang paling perkara konkrit dan realistik yang akan terhasil daripada ini." Akibat yang tidak diingini. ”

Apa yang perlu dilakukan pada masa hadapan

Walaupun kebimbangan yang semakin meningkat tentang kesan negatif industri teknologi dan media sosial, langkah untuk mengawal selia industri teknologi dan platform media sosial di Amerika Syarikat jarang berlaku. Pakar bimbang perkara yang sama berlaku untuk kecerdasan buatan.

Peter Wang berkata: "Salah satu sebab ramai di antara kita bimbang tentang perkembangan kecerdasan buatan ialah sejak 40 tahun yang lalu, Amerika Syarikat sebagai sebuah masyarakat pada dasarnya telah berputus asa dalam mengawal selia teknologi." 🎜>

Walau bagaimanapun, Kongres A.S. telah mengambil beberapa langkah proaktif dalam beberapa bulan kebelakangan ini, mengadakan perbicaraan untuk Ketua Pegawai Eksekutif OpenAI Sam Altman untuk memberi keterangan mengenai langkah kawal selia yang harus dilaksanakan. Finley berkata dia "digalakkan" dengan langkah itu, tetapi lebih banyak kerja perlu dilakukan untuk membangunkan spesifikasi teknikal untuk kecerdasan buatan dan bagaimana ia akan dikeluarkan.

"Sukar untuk meramalkan kapasiti tindak balas perundangan dan pengawalseliaan," katanya "Kami memerlukan tahap teknologi ini untuk tertakluk kepada penelitian yang teliti."

Walaupun bahaya kecerdasan buatan adalah kebimbangan utama kebanyakan orang dalam industri, tidak semua pakar adalah "peramal". Ramai juga teruja dengan potensi aplikasi teknologi tersebut.

Peter Wang berkata: “Malah, saya fikir teknologi kecerdasan buatan generasi baharu benar-benar boleh mengeluarkan potensi besar untuk manusia, membolehkan masyarakat manusia berkembang maju dalam skala yang lebih besar berbanding 100 atau 200 tahun yang lalu. "Saya sebenarnya sangat-sangat optimistik tentang kesan positifnya."

Atas ialah kandungan terperinci Adakah kecerdasan buatan akan membawa kepada kematian manusia? Pakar mengatakan mereka lebih bimbang tentang maklumat salah dan manipulasi pengguna. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam