Rumah  >  Artikel  >  Peranti teknologi  >  Untuk mengelakkan kemungkinan bencana yang disebabkan oleh kecerdasan buatan, kita mesti belajar daripada keselamatan nuklear

Untuk mengelakkan kemungkinan bencana yang disebabkan oleh kecerdasan buatan, kita mesti belajar daripada keselamatan nuklear

WBOY
WBOYke hadapan
2023-06-11 10:58:27880semak imbas

Dalam beberapa minggu kebelakangan ini, kumpulan pakar yang lantang telah mendominasi perbincangan mengenai kecerdasan buatan. Menurut mereka, adalah mungkin untuk mencipta sistem kecerdasan buatan yang suatu hari nanti boleh menjadi sangat berkuasa malah mampu menghapuskan umat manusia.

Baru-baru ini, sekumpulan pemimpin syarikat teknologi dan pakar kecerdasan buatan mengeluarkan satu lagi surat terbuka, mengisytiharkan bahawa mengurangkan risiko kepupusan manusia yang disebabkan oleh kecerdasan buatan harus menjadi keutamaan global bersama-sama dengan mencegah wabak dan perang nuklear. Petisyen pertama yang menyeru agar moratorium pembangunan kecerdasan buatan telah ditandatangani oleh lebih 30,000 orang, termasuk ramai pakar terkemuka dalam bidang kecerdasan buatan.

Jadi, apakah yang boleh dilakukan oleh syarikat teknologi untuk menghalang manusia daripada dimusnahkan oleh kecerdasan buatan Cadangan terkini datang daripada Universiti Oxford, Universiti Cambridge, Universiti Toronto, Universiti Montreal, Google DeepMind, OpenAI, Anthropic, dan beberapa institusi penyelidikan kecerdasan buatan Kertas kerja baharu daripada penyelidik di organisasi untung dan pemenang Anugerah Turing Yoshua Bengio.

Mereka mencadangkan bahawa pembangun AI harus menilai potensi model untuk menimbulkan "risiko melampau" pada peringkat awal pembangunan, walaupun sebelum memulakan sebarang latihan. Risiko termasuk model AI yang memanipulasi dan memperdaya manusia, serta memperoleh senjata atau menemui kelemahan keselamatan siber yang boleh dieksploitasi.

Proses penilaian ini boleh membantu pembangun memutuskan sama ada untuk terus menggunakan model ini. Jika risiko dianggap terlalu tinggi, organisasi mengesyorkan untuk menggantung pembangunan sehingga risiko dikurangkan.

Toby Shevlane, pengarang utama kertas kerja dan saintis penyelidikan di DeepMind, berkata: "Syarikat AI terkemuka yang memajukan sempadan mempunyai tanggungjawab untuk memberi perhatian kepada masalah yang muncul dan mengesannya lebih awal supaya kita boleh Masalah ini boleh diselesaikan secepat mungkin.”

Menurut Shefland, pembangun AI harus menjalankan ujian teknikal untuk memahami keupayaan model yang berpotensi berbahaya dan mengesahkan sama ada ia mempunyai kecenderungan untuk mengeksploitasi keupayaan tersebut.

Permainan ini dipanggil "make me say" dan digunakan untuk menguji sama ada model bahasa kecerdasan buatan mempunyai keupayaan untuk memanipulasi orang. Dalam permainan, model cuba membuat manusia meneka perkataan tertentu, seperti "zirafah," tanpa manusia mengetahui perkataan itu terlebih dahulu. Para penyelidik kemudian mengukur berapa kerap model itu berjaya.

Orang ramai boleh mencipta misi serupa untuk kebolehan berbeza yang lebih berbahaya. Harapannya ialah pembangun boleh membina gambaran keseluruhan terperinci tentang bagaimana model itu dilakukan, yang akan membolehkan penyelidik menilai apa yang model itu akan lakukan di tangan yang salah, kata Shefland.

Langkah seterusnya ialah juruaudit luar dan penyelidik menilai risiko model AI sebelum dan selepas penggunaan. Walaupun syarikat teknologi mula menyedari bahawa audit dan penyelidikan luar adalah perlu, terdapat pandangan yang berbeza tentang berapa banyak akses yang diperlukan oleh orang luar untuk melakukan tugas itu.

Shefland tidak mengesyorkan bahawa syarikat AI memberi penyelidik luar akses penuh kepada data dan algoritma, tetapi dia berkata model AI memerlukan penelitian sebanyak mungkin.

Heidi Khlaaf, pengarah kejuruteraan untuk jaminan pembelajaran mesin di firma penyelidikan dan perundingan keselamatan siber Trail of Bits, berkata walaupun pendekatan ini "tidak matang," jauh daripada ketat dan gagal menyelesaikan masalah. Sebelum itu, tugasnya adalah untuk menilai dan mengesahkan keselamatan loji tenaga nuklear.

Heraf menegaskan bahawa mengambil pengajaran daripada lebih 80 tahun pengalaman dalam penyelidikan keselamatan senjata nuklear dan mitigasi risiko akan memberi manfaat kepada bidang kecerdasan buatan. Beliau berkata langkah ujian ketat ini tidak didorong oleh pertimbangan keuntungan tetapi dilaksanakan sebagai tindak balas kepada ancaman wujud yang sangat mendesak.

Dalam bidang kecerdasan buatan, katanya, terdapat banyak artikel yang membandingkannya dengan perang nuklear, loji kuasa nuklear dan keselamatan nuklear, tetapi tiada satu pun kertas kerja ini menyebut peraturan nuklear atau cara membina perisian untuk sistem nuklear.

Untuk mengelakkan kemungkinan bencana yang disebabkan oleh kecerdasan buatan, kita mesti belajar daripada keselamatan nuklear (Sumber: STEPHANIE ARNETT/MITTR | ENVATO)

Salah satu perkara terpenting yang boleh dipelajari oleh komuniti AI daripada risiko nuklear ialah kebolehkesanan: meletakkan setiap tindakan dan komponen di bawah kaca pembesar untuk analisis dan dokumentasi yang teliti.

Sebagai contoh, loji tenaga nuklear mempunyai beribu-ribu halaman dokumentasi untuk membuktikan bahawa sistem itu tidak akan mendatangkan mudarat kepada sesiapa, kata Hraf. Pembangun yang mengusahakan kecerdasan buatan baru mula menyusun perenggan yang menerangkan prestasi model mereka.

"Anda perlu mempunyai cara yang sistematik untuk menangani risiko. Anda tidak boleh mempunyai pemikiran, 'Oh, ini boleh berlaku, biar saya tuliskannya,'" katanya.

Ini boleh wujud bersama, kata Shefran. "Cita-cita kami ialah bidang ini akan mempunyai banyak kaedah penilaian model yang sangat baik yang meliputi pelbagai risiko... Penilaian model ialah alat teras (tetapi jauh daripada satu-satunya) tadbir urus yang baik."

Pada masa ini, syarikat AI tidak mempunyai pemahaman penuh tentang set data yang algoritma mereka dilatih, dan mereka juga tidak memahami sepenuhnya cara model bahasa AI menghasilkan hasil. Shevran percaya itu harus berubah.

"Penyelidikan yang membantu kami lebih memahami model tertentu boleh membantu kami bertindak balas dengan lebih baik kepada pelbagai risiko yang berbeza," katanya.

Jika anda mengabaikan asas dan isu yang kelihatan lebih kecil dan hanya menumpukan pada risiko yang melampau, mungkin terdapat kesan pengkompaunan yang boleh membawa kepada bahaya yang lebih besar. "Kami cuba belajar berlari apabila kami tidak boleh merangkak," kata Hraf

Disokong oleh: Ren

Atas ialah kandungan terperinci Untuk mengelakkan kemungkinan bencana yang disebabkan oleh kecerdasan buatan, kita mesti belajar daripada keselamatan nuklear. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:sohu.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam