Rumah >Peranti teknologi >AI >Adakah kecerdasan buatan (AI) boleh dipercayai?

Adakah kecerdasan buatan (AI) boleh dipercayai?

王林
王林ke hadapan
2023-04-12 12:37:062694semak imbas

Adakah kecerdasan buatan (AI) boleh dipercayai?

​Kecerdasan buatan lebih buatan daripada kecerdasan

Pada Jun 2022, Microsoft mengeluarkan Microsoft Responsible Artificial Intelligence Standard v2, dengan tujuan "mendefinisikan produk kecerdasan buatan yang bertanggungjawab keperluan pembangunan”. Mungkin mengejutkan, dokumen itu hanya menyebut satu jenis berat sebelah dalam AI, iaitu pembangun algoritma Microsoft perlu menyedari isu yang mungkin timbul daripada pengguna yang terlalu bergantung pada AI (juga dikenali sebagai "diskriminasi automasi").

Ringkasnya, Microsoft nampaknya lebih mengambil berat tentang pendapat pengguna tentang produknya daripada cara produk itu sebenarnya mempengaruhi pengguna. Ini adalah tanggungjawab perniagaan yang baik (jangan katakan apa-apa yang negatif tentang produk kami), tetapi tanggungjawab sosial yang lemah (terdapat banyak contoh diskriminasi algoritma yang memberi kesan negatif kepada individu atau kumpulan individu).

Terdapat tiga isu utama yang tidak dapat diselesaikan dengan AI komersial:

  • Kecondongan tersembunyi yang menyebabkan keputusan palsu
  • Kemungkinan penyalahgunaan oleh pengguna atau penyerang;
  • Algoritma mengembalikan begitu banyak positif palsu sehingga menafikan nilai automasi.

Kebimbangan Akademik

Apabila kecerdasan buatan pertama kali diperkenalkan ke dalam produk keselamatan siber, ia digambarkan sebagai peluru perak pelindung. Tidak dinafikan bahawa AI mempunyai nilainya, tetapi dengan beberapa algoritma yang salah, diskriminasi tersembunyi, dan penyalahgunaan AI oleh penjenayah, dan juga privasi mengintip oleh penguatkuasa undang-undang dan agensi perisikan, suara terhadap AI semakin kuat dan kuat.

Menurut Scientific American pada 6 Jun 2022, masalahnya ialah pengkomersialan sains yang masih berkembang:

Penyelidikan terbesar dalam Pasukan kecerdasan buatan tidak ditemui dalam akademik tetapi dalam perniagaan. Dalam akademik, semakan rakan sebaya adalah raja. Tidak seperti universiti, perniagaan tidak mempunyai insentif untuk bersaing secara adil. Daripada menyerahkan kertas akademik baharu untuk semakan ilmiah, mereka melibatkan wartawan melalui siaran akhbar dan melompat proses semakan rakan sebaya. Kami hanya tahu apa yang syarikat mahu kami ketahui.

--Gary Marcus, profesor psikologi dan neurosains di Universiti New York

Hasilnya ialah kita hanya mendengar aspek positif kecerdasan buatan, tetapi bukan aspek negatif buatan. kecerdasan.

Emily Tucker, pengarah eksekutif Pusat Privasi dan Teknologi di Georgetown Law School, membuat kesimpulan yang sama: "Mulai hari ini, pusat kami akan berhenti menggunakan istilah 'kecerdasan buatan', 'AI' dan ' pembelajaran mesin' untuk mendedahkan dan mengurangkan kemudaratan teknologi digital dalam kehidupan individu dan komuniti... Salah satu sebab mengapa syarikat teknologi telah begitu berjaya dalam memutar belit Ujian Turing sebagai cara strategik untuk mengakses modal adalah kerana kerajaan tidak sabar-sabar. kepada kuasa penyeliaan di mana-mana yang diperkasakan oleh teknologi adalah mudah dan agak murah untuk dilaksanakan dan boleh diperoleh melalui proses perolehan yang memintas daripada membuat keputusan atau pengawasan demokratik.”

Ringkasnya, mengejar keuntungan menghalang pembangunan saintifik buatan. kecerdasan. Menghadapi kebimbangan ini, kita perlu bertanya kepada diri sendiri sama ada AI dalam produk kita boleh dipercayai untuk mengeluarkan maklumat yang tepat dan pertimbangan yang tidak berat sebelah, dan bukannya disalahgunakan oleh orang ramai, penjenayah, malah kerajaan.

Kegagalan AI

Kes 1: Sebuah kereta pandu sendiri Tesla memandu terus ke arah pekerja yang memegang tanda berhenti, memperlahankan hanya apabila pemandu campur tangan. Sebabnya ialah AI dilatih untuk mengenali manusia dan mengenali tanda berhenti, tetapi ia tidak dilatih untuk mengenali manusia yang membawa tanda berhenti.

Kes 2: Pada 18 Mac 2018, sebuah kereta pandu sendiri Uber melanggar dan membunuh seorang pejalan kaki yang menolak basikal. Menurut NBC pada masa itu, AI tidak dapat "mengklasifikasikan objek sebagai pejalan kaki melainkan objek itu berhampiran dengan lintasan pejalan kaki."

Kes 3: Semasa penutupan COVID-19 di Britain pada 2020, markah ujian pelajar dinilai oleh algoritma kecerdasan buatan. Kira-kira 40% pelajar menerima gred yang jauh lebih rendah daripada yang dijangkakan. Ini kerana algoritma tersebut terlalu menekankan hasil sejarah setiap sekolah. Akibatnya, pelajar di sekolah swasta dan sebelum ini sekolah awam berpencapaian tinggi menerima kelebihan pemarkahan yang besar berbanding sekolah lain.

Kes 4: Tay ialah chatbot kecerdasan buatan yang dilancarkan oleh Microsoft di Twitter pada 2016. Dengan meniru bahasa manusia sebenar, Tay menyasarkan untuk menjadi sistem interaktif pintar yang boleh memahami slanga. Tetapi selepas hanya 16 jam interaksi orang sebenar, Tay terpaksa pergi ke luar talian. "Hitler betul membenci Yahudi," tweet itu.

Kes 5: Pilih calon. Amazon mahu AI membantunya memilih calon secara automatik untuk mengisi kekosongan pekerjaan, tetapi keputusan algoritma adalah seksis dan perkauman, memihak kepada calon lelaki kulit putih.

Kes 6: Tersilap identiti. Pasukan bola sepak Scotland telah menyiarkan perlawanan dalam talian semasa penutupan koronavirus, menggunakan kamera berkuasa AI untuk menjejaki bola. Tetapi sistem penangkapan AI ini sentiasa menganggap kepala botak penjaga garisan sebagai bola sepak, dan tumpuan penangkapan sentiasa pada penjaga garisan, bukan permainan.

Kes 7: Permohonan ditolak. Pada 2016, seorang ibu memohon agar anaknya berpindah ke pangsapuri yang didiaminya selepas sedar daripada koma selama setengah tahun, namun ditolak pusat perumahan berkenaan. Selepas setahun anak lelaki itu dihantar ke pusat pemulihan, puncanya didedahkan melalui peguam. Kepintaran buatan yang digunakan oleh pusat perumahan itu percaya bahawa anak lelaki itu mempunyai rekod kecurian, jadi dia telah disenaraihitamkan dari perumahan. Tetapi sebenarnya, anak lelaki itu telah terlantar dan tidak dapat melakukan jenayah itu.

Terdapat banyak contoh yang serupa, dan sebabnya tidak lebih daripada dua ialah kegagalan reka bentuk yang disebabkan oleh penyelewengan yang tidak dijangka, dan satu lagi adalah kegagalan pembelajaran. Kes kereta pandu sendiri adalah kegagalan pembelajaran. Walaupun ralat boleh dibetulkan apabila bilangan masa pembelajaran meningkat, sehingga ia dibetulkan, mungkin terdapat harga yang mahal untuk dibayar apabila digunakan. Tetapi jika anda ingin mengelakkan sepenuhnya risiko, ini bermakna ia tidak akan pernah digunakan.

Kes 3 dan 5 ialah kegagalan reka bentuk, dan sisihan yang tidak dijangka telah memesongkan keputusan. Persoalannya ialah sama ada pemaju boleh mengalih keluar berat sebelah mereka tanpa mengetahui mereka mempunyainya.

Penyalahgunaan dan Penyalahgunaan Kecerdasan Buatan

Penyalahgunaan bermaksud kesan aplikasi kecerdasan buatan bukanlah seperti yang dimaksudkan oleh pembangun. Penyalahgunaan bermaksud melakukan sesuatu dengan sengaja, seperti mencemarkan data yang diberikan kepada kecerdasan buatan. Secara umumnya, penyalahgunaan biasanya berpunca daripada tindakan pemilik produk AI, manakala penyalahgunaan sering melibatkan tindakan pihak ketiga (seperti penjenayah siber), menyebabkan produk tersebut dimanipulasi dengan cara yang tidak dimaksudkan oleh pemiliknya. Mari kita lihat salah guna dahulu.

Penyalahgunaan

Kazerounian, ketua penyelidikan di Vectra AI, percaya bahawa apabila algoritma yang dibangunkan manusia cuba membuat pertimbangan tentang orang lain, berat sebelah tersembunyi tidak dapat dielakkan. Apabila ia berkaitan dengan permohonan kredit dan permohonan sewa, sebagai contoh, Amerika Syarikat mempunyai sejarah panjang garis merah dan perkauman, dan dasar diskriminasi ini telah lama mendahului automasi berasaskan AI.

Selain itu, apabila berat sebelah dibenamkan jauh ke dalam algoritma kecerdasan buatan, ia lebih sukar untuk dikesan dan difahami daripada berat sebelah manusia. "Anda mungkin boleh melihat keputusan klasifikasi operasi matriks dalam model pembelajaran mendalam. Tetapi orang hanya boleh menerangkan mekanisme operasi, tetapi bukan sebabnya. Ia hanya menerangkan mekanisme. Saya fikir, pada tahap yang lebih tinggi, Apa yang kita mesti bertanya, adakah beberapa perkara sesuai untuk diserahkan kepada kecerdasan buatan "

Satu kajian yang diterbitkan oleh MIT dan Universiti Harvard di The Lancet pada 11 Mei 2022. , mengesahkan bahawa orang tidak dapat memahami sejauh mana pembelajaran mendalam mencapainya? kesimpulan. Kajian itu mendapati bahawa kecerdasan buatan dapat mengenal pasti bangsa dengan bergantung semata-mata pada imej perubatan, seperti X-ray dan imbasan CT, tetapi tiada siapa yang tahu bagaimana AI melakukannya. Jika kita memikirkannya dengan lebih lanjut, sistem perubatan AI mungkin boleh melakukan lebih banyak daripada yang kita bayangkan apabila ia datang untuk menentukan bangsa, etnik, jantina pesakit dan juga sama ada mereka dipenjarakan.

Anthony Seeley, profesor perubatan di Harvard Medical School dan salah seorang pengarang, mengulas, "Hanya kerana anda mempunyai perwakilan kumpulan yang berbeza dalam algoritma anda (kualiti dan kesahihan data), itu tidak' t menjamin bahawa ia akan sentiasa seperti itu, dan tidak ada jaminan bahawa ia akan memperbesarkan jurang dan ketidaksamaan yang sedia ada dengan lebih banyak data menggunakan pembelajaran perwakilan bukanlah ubat penawar untuk menggunakan kecerdasan buatan pada aplikasi kami diagnosis klinikal ”

Masalah ini juga telah merebak ke bidang keselamatan rangkaian. Pada 22 April 2022, Microsoft menambahkan ciri yang dipanggil "Pengkelas Lepas" pada peta jalan produknya. Produk itu dijangka tersedia pada September 2022. "Pengkelas lepasan boleh mengesan awal pekerja yang berhasrat untuk meninggalkan organisasi untuk mengurangkan risiko kebocoran data yang disengajakan atau tidak disengajakan disebabkan oleh pusing ganti pekerja."

Apabila sesetengah media cuba menggunakan kecerdasan buatan dan privasi peribadi sebagai tema Semasa menemu bual Microsoft, saya mendapat jawapan ini: "Microsoft tidak mempunyai apa-apa untuk dikongsi pada masa ini, tetapi jika ada berita baharu kami akan memberitahu anda pada masanya

Dari segi etika, perkara yang mesti dipertimbangkan ialah penggunaan AI Untuk membuat spekulasi mengenai niat untuk meletakkan jawatan dan sama ada ia adalah penggunaan teknologi yang betul. Sekurang-kurangnya kebanyakan orang percaya bahawa memantau komunikasi untuk menentukan sama ada seseorang sedang mempertimbangkan untuk meninggalkan pekerjaan mereka adalah perkara yang betul atau sesuai untuk dilakukan, terutamanya jika akibatnya boleh menjadi negatif.

Selain itu, bias yang tidak dijangka dalam algoritma adalah sukar untuk dielakkan dan lebih sukar untuk dikesan. Memandangkan manusia sukar untuk menilai motivasi peribadi secara berkesan apabila meramalkan sama ada seseorang akan meninggalkan pekerjaan mereka, mengapa sistem kecerdasan buatan tidak akan membuat kesilapan? Selain itu, orang berkomunikasi di tempat kerja dalam pelbagai cara bercakap, membuat andaian, bergurau, marah, atau bercakap tentang orang lain. Walaupun anda pergi ke laman web pengambilan untuk mengemas kini resume anda, ia mungkin hanya satu pemikiran yang berlalu dalam fikiran anda. Sebaik sahaja pekerja ditentukan oleh pembelajaran mesin untuk berkemungkinan besar untuk keluar, mereka berkemungkinan menjadi yang pertama diberhentikan semasa kegawatan ekonomi dan tidak akan layak untuk kenaikan gaji atau kenaikan pangkat.

Ada kemungkinan yang lebih luas. Jika perniagaan boleh memiliki teknologi ini, penguatkuasaan undang-undang dan agensi perisikan juga akan melakukannya. Kesilapan pertimbangan yang sama boleh berlaku, dan akibatnya adalah lebih serius daripada kenaikan pangkat atau kenaikan gaji.

Penyalahgunaan

Alex Polyakov, pengasas dan Ketua Pegawai Eksekutif Adversa.ai, lebih bimbang tentang penyalahgunaan AI dengan memanipulasi proses pembelajaran mesin. “Penyelidikan yang dilakukan oleh saintis dan kerja penilaian dunia sebenar oleh pasukan merah AI kami [memainkan peranan sebagai penyerang] telah membuktikan bahawa memperdayakan keputusan AI, sama ada penglihatan komputer atau pemprosesan bahasa semula jadi atau apa-apa lagi, , ia sudah cukup untuk mengubah suai set input yang sangat kecil. "

Sebagai contoh, perkataan "makan pucuk dan daun" boleh mewakili vegetarian atau pengganas dengan hanya menambah tanda baca yang berbeza. . Untuk kecerdasan buatan, hampir satu tugas yang mustahil untuk menghabiskan makna semua perkataan dalam semua konteks.

Selain itu, Polyakov telah membuktikan dua kali betapa mudahnya untuk menipu sistem pengecaman muka. Kali pertama sistem kecerdasan buatan dibuat untuk mempercayai bahawa semua orang di hadapannya adalah Elon Musk Contoh kedua adalah menggunakan imej manusia yang jelas kelihatan seperti orang yang sama, tetapi ditafsirkan oleh kecerdasan buatan sebagai. berbilang orang yang berbeza. Prinsip yang terlibat, iaitu memanipulasi proses pembelajaran kecerdasan buatan, boleh digunakan oleh penjenayah siber kepada hampir mana-mana alat kecerdasan buatan.

Dalam analisis akhir, kecerdasan buatan hanyalah kecerdasan mesin yang diajar oleh manusia Kita masih jauh dari kecerdasan buatan sebenar, walaupun kita tidak membincangkan sama ada kecerdasan buatan sebenar boleh dicapai. Buat masa ini, AI harus dilihat sebagai alat untuk mengautomasikan banyak tugas manusia biasa, dengan kadar kejayaan dan kegagalan yang serupa dengan manusia. Sudah tentu, ia jauh lebih pantas dan jauh lebih murah daripada pasukan penganalisis yang mahal.

Akhir sekali, sama ada kecenderungan algoritma atau penyalahgunaan AI, semua pengguna kecerdasan buatan harus mempertimbangkan isu ini: sekurang-kurangnya pada peringkat ini, kita tidak boleh terlalu bergantung pada output kecerdasan buatan.

Atas ialah kandungan terperinci Adakah kecerdasan buatan (AI) boleh dipercayai?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam