Rumah >Peranti teknologi >AI >Bilakah pembangunan kecerdasan buatan akan menembusi belenggu?

Bilakah pembangunan kecerdasan buatan akan menembusi belenggu?

WBOY
WBOYke hadapan
2023-04-08 18:51:04837semak imbas

Bilakah pembangunan kecerdasan buatan akan menembusi belenggu?

Baru-baru ini, kereta jenama tertentu mengalami kemalangan semasa ujian prototaip, menyebabkan banyak kerosakan kepada orang dan harta benda, dan ia serta-merta menjadi tajuk utama. Pada masa yang sama, pendapat umum juga memberi perhatian kepada isu biasa pemanduan kenderaan autonomi. Adakah pemanduan autonomi selamat? Perlukah pemanduan autonomi dibuka? Di bawah tempurung pemanduan autonomi, sukar untuk menentukan sama ada kecerdasan buatan boleh mempunyai pertimbangan moral sebagai teras masalah.

"Masalah Troli" Kecerdasan Buatan menghadapi dilema moral

MIT di Amerika Syarikat mereka tapak web yang dipanggil Moral Machine Tapak web mereka bentuk pelbagai senario kereta hilang kawalan untuk membolehkan penonton membuat pilihan. dengan mengumpul maklum balas daripada 3 juta pengguna, Moral Machine mendapati bahawa orang ramai lebih cenderung untuk membiarkan kereta pandu sendiri merosakkan diri untuk melindungi lebih banyak nyawa, tetapi berharap kereta mereka tidak mempunyai ciri ini. Kesimpulan ini tidak ada kaitan dengan budaya atau adat Ia adalah pilihan biasa manusia dan konsisten dengan pemahaman umum masyarakat. Tetapi ini bertentangan dengan undang-undang, kerana kehidupan manusia itu sendiri tidak boleh dibandingkan dan diukur.

Ini adalah isu etika yang tidak dapat dielakkan untuk pemanduan autonomi. Di satu pihak, jika AI dibenarkan membuat keputusan di luar kawalan, mengikut peruntukan penyepaduan kuasa dan tanggungjawab, ini bermakna AI atau syarikat pemanduan autonomi di belakangnya harus bertanggungjawab ke atas tingkah laku membuat keputusan. Sebaliknya, jika AI tidak dibenarkan membuat keputusan, ia tidak boleh dipanggil pemanduan autonomi - kerana definisi kereta autonomi ialah kereta yang dapat merasakan persekitarannya dan mengemudi memandu tanpa campur tangan manusia.

"Masalah troli" yang dihadapi oleh pemanduan autonomi hanyalah mikrokosmos daripada kesukaran yang dihadapi oleh industri kecerdasan buatan. Walaupun model kecerdasan buatan telah menjadi lebih matang dengan kemajuan teknologi dan pembangunan industri data besar, mereka masih berada dalam situasi yang memalukan apabila melibatkan isu manusia seperti moral dan kesedaran: Menurut teori "singularity" kecerdasan buatan. , kecerdasan buatan akhirnya akan Ia mengatasi manusia dari segi rasional dan kepekaan, tetapi manusia sentiasa mempunyai "kompleks Frankenstein" mengenai keselamatan kecerdasan buatan Secara umumnya, manusia secara psikologi tidak dapat menerima empati dengan mesin bukan biologi.

Pada awal Jun tahun ini, LaMDA, model bahasa aplikasi perbualan yang dilancarkan oleh Google pada 2021, telah didedahkan sebagai "sedar" oleh salah seorang pemimpinnya, jurutera Lemoy. Dia percaya bahawa model LaMDA adalah "orang" yang mempunyai kesedaran diri dan boleh melihat dunia, dan mempunyai kecerdasan kanak-kanak berusia tujuh atau lapan tahun. Lemoy berkata model LaMDA bukan sahaja melihat dirinya sebagai manusia, tetapi memperjuangkan haknya sebagai manusia dan bersungguh-sungguh mempertahankannya. Selepas kejadian itu tercetus, ramai netizen menyokong Lemoy, percaya bahawa keistimewaan kecerdasan buatan telah tiba. Mereka percaya bahawa kecerdasan buatan telah menjadi sedar dan berjiwa, dan boleh berfikir secara bebas seperti manusia.

Medan ranjau nilai pertimbangan kecerdasan buatan

Adakah kecerdasan buatan bermoral, iaitu, adakah kecerdasan buatan membuat pertimbangan nilai?

Jika kecerdasan buatan dianggap sebagai moral, ini bermakna kecerdasan buatan boleh menyingkirkan kawalan kehendak manusia dan membuat penilaian bebas terhadap peristiwa atau perkara. Ini tidak sukar untuk dicapai pada peringkat teknikal Melalui "memberi makan" sejumlah besar data, kecerdasan buatan boleh mendigitalkan peristiwa atau perkara dan mengukurnya mengikut satu set "standard penilaian" yang dibentuk oleh pembelajaran mendalam. Perkara yang sama berlaku untuk model LaMDA di atas. Tetapi sebenarnya, model LaMDA hanyalah mesin tindak balas Gary Marcus, pakar pembelajaran mesin dan rangkaian saraf yang terkenal, berkata: "LaMDA hanya mengeluarkan perkataan daripada korpus manusia dan kemudian memadankan soalan anda apa yang dipanggil "moraliti" kecerdasan buatan "Ia hanya tindak balas kepada peristiwa atau perkara, dan tidak memberikan pemahaman yang mendalam tentang apa itu penilaian moral dan maksud penilaian moral.

Untuk contoh lain, model kecerdasan buatan yang berbeza mempunyai cara yang berbeza untuk mengendalikan situasi yang sama. Masih mengambil pemanduan autonomi sebagai contoh, bergegas ke arah baldi yang sama dengan cara yang sama, hasilnya berbeza sama sekali. Ada yang berlanggar langsung, manakala yang lain mengelak. Bolehkah ini meningkat ke tahap moral? Jelas sekali tidak, malah tidak ada perbezaan antara kedua-dua model, kerana model yang direka berdasarkan konsep dan keperluan yang berbeza mempunyai ciri khas yang pertama percaya bahawa keadaan ini tergolong dalam kategori operasi pemandu dan tidak memerlukan campur tangan; intervensi perlu dilakukan.

Mengambil langkah ke belakang, dengan mengandaikan bahawa kecerdasan buatan mempunyai kesedaran seperti manusia dan boleh berfikir secara bebas, adakah itu bermakna kita boleh berharap ia dapat menyelesaikan masalah moral? Jawapannya tidak. Secara mudahnya, masalah akhlak yang tidak dapat diselesaikan oleh manusia sendiri tidak boleh diharapkan dapat diselesaikan dengan angka tanpa konsep “kemanusiaan”.

Dari perspektif ini, tiada isu moral dalam pertimbangan nilai membangunkan kecerdasan buatan Apa yang lebih penting ialah menganalisis mengapa penilaian moral diperlukan. Tujuan asas penilaian moral adalah untuk mencapai hasil dan membimbing tingkah laku seterusnya. Wartawan percaya bahawa dari segi atribusi kecerdasan buatan, kecerdasan buatan harus dibahagikan kepada sistem membuat keputusan dan sistem pelaksanaan, dan sistem "orang yang bertanggungjawab" harus diperkenalkan untuk sistem yang sepadan.

Dari perspektif membuat keputusan, walaupun dari sudut undang-undang, tindakan dihukum tetapi bukan pemikiran, ia hanya disasarkan kepada orang asli. "Idea" kecerdasan buatan semasa boleh dinyatakan melalui data, jadi dari perspektif membuat keputusan, kecerdasan buatan masih memerlukan pengurusan dan kawalan. Terdapat kesilapan dalam "idea" kecerdasan buatan Sebabnya ialah terdapat masalah dengan data yang digunakan untuk melatih algoritma, iaitu kecerdasan buatan mempelajari masalah yang wujud dalam masyarakat dan mengaplikasikannya. Sebagai contoh, Amazon, jenama e-dagang Amerika, menggunakan algoritma kecerdasan buatan untuk menapis resume calon pada mulanya apabila merekrut pekerja Hasilnya lebih berat sebelah terhadap lelaki kerana apabila jurutera melatih algoritma, mereka menggunakan pekerja yang telah diupah oleh Amazon sebelum ini. Resume dilatih, dan Amazon mempunyai lebih ramai pekerja lelaki. Hasilnya ialah algoritma sedemikian menjadikan algoritma penapisan resume Amazon lebih berat sebelah terhadap lelaki, mengakibatkan "diskriminasi seks" dalam algoritma. Wartawan percaya bahawa jika keputusan undang-undang disebabkan oleh algoritma dan data latihan, orang yang bertanggungjawab untuk reka bentuk atau latihan algoritma harus bertanggungjawab.

Dari perspektif tingkah laku, walaupun kecerdasan buatan boleh menandingi atau mengatasi manusia dalam pelaksanaan tingkah laku, dari sudut undang-undang, kecerdasan buatan masih dianggap sebagai satu perkara dan bukannya subjek yang mempunyai hak dan kebolehan. Ini juga bermakna bahawa undang-undang semasa menafikan bahawa kecerdasan buatan boleh memikul tanggungjawab undang-undang secara bebas Pada asasnya, ia adalah kerana kecerdasan buatan tidak boleh bertanggungjawab untuk tindakan yang dilakukannya Penubuhan sistem "orang yang bertanggungjawab" adalah serupa dengan sistem perwakilan undang-undang organisasi orang undang-undang Ia terdiri daripada orang perseorangan tertentu hendaklah menanggung liabiliti yang timbul daripada perbuatan itu. Membezakan "pemikiran" dan "tindakan" boleh menjadikan atribusi tanggungjawab lebih terperinci, memastikan tanggungjawab yang berkesan tanpa menjejaskan semangat untuk pembangunan industri kecerdasan buatan. Dalam bidang sivil semasa, liabiliti produk dikenakan pada pelanggaran produk kecerdasan buatan, menekankan tanggungjawab untuk pembangun, pengeluar dan penjual.

* * *

Dalam beberapa tahun kebelakangan ini, negara kita telah berturut-turut mengeluarkan dokumen dasar seperti "Prinsip Tadbir Urus Kepintaran Buatan Generasi Baharu" dan "Kepintaran Buatan Generasi Baharu. Kod Etika", dengan jelas menyatakan Lapan prinsip tersebut menekankan integrasi etika ke dalam keseluruhan kitaran hayat kecerdasan buatan dan mengekalkan pembangunan sihat industri kecerdasan buatan dari perspektif berprinsip. Sumber berkaitan berkata bahawa Jawatankuasa Kecil Kecerdasan Buatan Jawatankuasa Etika Sains dan Teknologi Kebangsaan sedang mengkaji dan merangka senarai berisiko tinggi etika kecerdasan buatan untuk lebih menggalakkan penyeliaan etika aktiviti penyelidikan saintifik kecerdasan buatan. Saya percaya bahawa dengan pengenalan lebih banyak peraturan undang-undang, isu etika dalam penerapan kecerdasan buatan akan dapat dikurangkan dengan banyak.

Petua

Apakah meme tentang kecerdasan buatan?

Masalah Troli: "Masalah Troli" adalah salah satu eksperimen pemikiran yang paling terkenal dalam bidang etika Ia pertama kali diterbitkan oleh ahli falsafah Philippa Foot pada tahun 1967 dalam "The Problem of Abortion and "The. Double Effect of Dogma" telah dicadangkan dalam kertas itu. Kandungan umum ialah 5 orang terikat pada trek trem, 1 orang terikat pada trek sandaran, dan trem luar kawalan sedang menghampiri pada kelajuan tinggi. Terdapat kayu bedik di sebelah anda. Dilema etika jenis ini dikenali sebagai "masalah troli."

Teori "Singularity" Kecerdasan Buatan: Orang pertama yang memperkenalkan "Singularity" ke dalam bidang kecerdasan buatan ialah futuris Amerika Ray Kurzweil. Dalam dua bukunya, "The Singularity is Near" dan "The Future of Artificial Intelligence", dia menggabungkan kedua-duanya Dia menggunakan "singularity" sebagai metafora untuk menggambarkan peringkat tertentu dalam masa dan ruang apabila keupayaan kecerdasan buatan mengatasi. bahawa manusia. Apabila kecerdasan buatan melintasi "ketunggalan" ini, semua tradisi, pemahaman, konsep, dan akal yang kita biasakan tidak akan wujud lagi Perkembangan teknologi yang dipercepatkan akan membawa kepada "kesan pelarian" dan kecerdasan buatan akan mengatasi potensi dan potensi kecerdasan manusia mengawal dan mengubah tamadun manusia dengan pantas.

Kompleks Frankenstein: Berasal daripada novelis Asimov, ia merujuk kepada keadaan psikologi manusia yang takut kepada mesin. Frankenstein ialah protagonis dalam novel yang dipanggil "Frankenstein: The Story of a Modern Prometheus" yang ditulis oleh Mary Shelley pada tahun 1818. Dia mencipta makhluk humanoid, tetapi dia juga Backlash. "Frankenstein" kini digunakan untuk merujuk kepada raksasa yang dicipta oleh manusia. Dalam kesusasteraan semasa, filem dan karya lain, "kompleks Frankenstein" sering membayangkan bahawa kecerdasan buatan menakluki manusia dan mula mengurus dunia. Wartawan Xu Yong Intern Yang Chenglin

Atas ialah kandungan terperinci Bilakah pembangunan kecerdasan buatan akan menembusi belenggu?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam