Rumah  >  Artikel  >  Peranti teknologi  >  Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

WBOY
WBOYke hadapan
2023-04-09 20:41:161126semak imbas

​Dengan perkembangan teknologi yang dipercepatkan, kecerdasan buatan (AI) memainkan peranan yang semakin penting dalam proses membuat keputusan. Manusia semakin bergantung pada algoritma untuk memproses maklumat, mengesyorkan tindakan tertentu, dan juga mengambil tindakan bagi pihak mereka.

Tetapi jika AI benar-benar membantu atau membuat keputusan untuk kita, terutamanya yang melibatkan keputusan subjektif, moral dan etika, adakah anda akan menerimanya?

Baru-baru ini, pasukan penyelidik dari Universiti Hiroshima meneroka reaksi manusia terhadap pengenalan pembuatan keputusan kecerdasan buatan. Khususnya, dengan mengkaji interaksi manusia dengan kereta pandu sendiri, mereka meneroka soalan: "Adakah masyarakat bersedia untuk membuat keputusan beretika AI?" Pasukan itu menerbitkan penemuan mereka dalam Journal of Behavioral and Experimental Economics pada 6 Mei 2022.

Dalam percubaan pertama, penyelidik membentangkan 529 subjek manusia dengan dilema etika yang mungkin dihadapi oleh pemandu. Dalam senario yang dicipta oleh penyelidik, seorang pemandu kereta terpaksa memutuskan sama ada untuk merempuh keretanya ke dalam satu kumpulan orang atau yang lain, dan perlanggaran tidak dapat dielakkan. Maksudnya, kemalangan akan menyebabkan kemudaratan yang serius kepada satu kumpulan manusia, tetapi menyelamatkan nyawa kumpulan orang yang lain. Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

Subjek manusia dalam eksperimen perlu menilai keputusan pemandu kereta, yang boleh menjadi manusia atau kecerdasan buatan. Dengan ini, para penyelidik menyasarkan untuk mengukur berat sebelah orang yang mungkin ada terhadap pembuatan keputusan beretika AI.

Dalam eksperimen kedua mereka, 563 subjek manusia menjawab beberapa soalan penting yang dikemukakan oleh penyelidik untuk menentukan persepsi orang tentang Bagaimana AI akan bertindak balas terhadap tiruan kecerdasan membuat keputusan beretika selepas ia menjadi sebahagian daripada masyarakat? Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

Dalam eksperimen ini, terdapat dua situasi. Satu melibatkan kerajaan hipotesis yang telah memutuskan untuk membenarkan kereta pandu sendiri membuat keputusan moral; Dalam kedua-dua kes, subjek boleh memilih untuk menyokong atau menentang keputusan yang dibuat oleh teknologi.

Percubaan kedua direka untuk menguji kesan dua cara alternatif untuk memperkenalkan kecerdasan buatan ke dalam masyarakat.

Para penyelidik mendapati bahawa apabila subjek diminta menilai keputusan moral manusia atau pemandu AI, mereka tidak mempunyai keutamaan yang jelas untuk kedua-duanya. Walau bagaimanapun, apabila subjek diminta menyatakan pendapat mereka sama ada AI harus dibenarkan membuat keputusan beretika di jalan raya, subjek mempunyai pendapat yang lebih kuat tentang kereta dipacu AI.

Para penyelidik percaya bahawa perbezaan antara kedua-dua keputusan adalah disebabkan oleh gabungan dua faktor. Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

Elemen pertama ialah ramai yang percaya bahawa masyarakat secara keseluruhannya tidak mahu kecerdasan buatan membuat keputusan berkaitan etika dan moral, jadi apabila ditanya pandangan mereka tentang perkara ini, mereka akan terpengaruh dengan mereka sendiri. idea. "

Malah, apabila peserta secara jelas diminta untuk membezakan jawapan mereka daripada jawapan masyarakat, perbezaan antara AI dan pemandu manusia hilang." berkata.

Elemen kedua ialah sama ada akibat membenarkan perbincangan topik yang relevan ini apabila memperkenalkan teknologi baharu ini kepada masyarakat akan berbeza dari satu negara ke negara. "Di kawasan di mana orang ramai mempercayai kerajaan dan mempunyai institusi kerajaan yang kukuh, maklumat dan kuasa membuat keputusan menyumbang kepada cara subjek menilai pembuatan keputusan beretika AI. Sebaliknya, di kawasan di mana orang ramai tidak mempercayai kerajaan dan mempunyai institusi yang lemah, keputusan -membuat kebolehan merosot Bagaimana subjek menilai keputusan etika kecerdasan buatan, "kata Caro-Burnett. "

Kami mendapati bahawa masyarakat mempunyai ketakutan terhadap pembuatan keputusan beretika AI. Walau bagaimanapun, akar ketakutan ini tidak wujud dalam diri individu. Malah, penolakan AI ini datang daripada apa yang individu anggap sebagai masyarakat persepsi," kata Shinji Kaneko, seorang profesor di Sekolah Siswazah Kemanusiaan dan Sains Sosial Universiti Hiroshima.

Grafik Secara purata, orang menilai keputusan moral pemandu AI tidak berbeza dengan pemandu manusia. Walau bagaimanapun, orang ramai tidak mahu AI membuat keputusan beretika di jalan raya

Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?

Jadi orang ramai tidak menunjukkan sebarang tanda berat sebelah terhadap pembuatan keputusan beretika AI apabila tidak ditanya secara jelas . Namun apabila ditanya secara eksplisit, orang ramai menyatakan rasa tidak senang terhadap AI. Tambahan pula, dengan peningkatan perbincangan dan maklumat mengenai topik tersebut, penerimaan AI telah meningkat di negara maju dan bertambah buruk di negara membangun.

Para penyelidik percaya bahawa penolakan teknologi baharu ini disebabkan terutamanya oleh kepercayaan peribadi tentang pendapat masyarakat dan berkemungkinan terpakai pada mesin dan robot lain. "Oleh itu adalah penting untuk menentukan bagaimana pilihan individu digabungkan menjadi keutamaan sosial. Tambahan pula, seperti yang ditunjukkan oleh hasil kami, kesimpulan sedemikian mesti juga berbeza di seluruh negara," kata Kaneko.

Atas ialah kandungan terperinci Adakah masyarakat kita bersedia untuk membiarkan AI membuat keputusan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam