Rumah > Artikel > Peranti teknologi > Adakah mungkin untuk menjadikan kecerdasan buatan lebih telus?
Untuk menjadikan kecerdasan buatan lebih beretika dan praktikal, adalah penting untuk meningkatkan kebolehtafsiran rangkaian saraf dalam.
Ketelusan dalam usaha AI boleh menyebabkan pening bagi organisasi yang mengintegrasikan teknologi ke dalam operasi harian mereka. Jadi, apakah yang boleh dilakukan untuk meredakan kebimbangan tentang keperluan untuk AI yang boleh dijelaskan
Faedah mendalam AI dalam mana-mana industri sudah diketahui umum. Kami menyedari bagaimana teknologi ini membantu beribu-ribu perniagaan di seluruh dunia mempercepatkan operasi mereka dan menggunakan pekerja mereka dengan lebih imaginatif. Selain itu, kos jangka panjang dan faedah keselamatan data AI telah didokumenkan berkali-kali oleh kolumnis teknologi dan penulis blog. Walau bagaimanapun, kecerdasan buatan mempunyai bahagian yang adil dalam masalah. Salah satu masalahnya ialah pembuatan keputusan teknologi kadangkala dipersoalkan. Tetapi yang lebih penting, masalah yang lebih besar ialah apabila sistem dipacu AI menjadi salah secara memalukan atau membawa malapetaka, mereka mengalami sedikit kekurangan kebolehjelasan.
Manusia melakukan kesilapan setiap hari. Walau bagaimanapun, kita tahu dengan tepat bagaimana ralat timbul. Satu set tindakan pembetulan yang jelas boleh diambil untuk mengelakkan kesilapan yang sama pada masa hadapan. Walau bagaimanapun, beberapa ralat dalam AI tidak dapat dijelaskan kerana pakar data tidak tahu bagaimana algoritma mencapai kesimpulan khusus dalam operasinya. Oleh itu, AI yang boleh dijelaskan harus menjadi keutamaan utama bagi kedua-dua organisasi yang merancang untuk melaksanakan teknologi ke dalam kerja harian mereka dan mereka yang telah pun menggabungkannya.
Kesilapan biasa tentang AI ialah ia tidak boleh salah sepenuhnya. Rangkaian saraf, terutamanya pada peringkat awalnya, boleh membuat kesilapan. Pada masa yang sama, rangkaian ini melaksanakan pesanan mereka dengan cara yang tidak telus. Seperti yang dinyatakan sebelum ini, laluan yang diambil oleh model AI untuk mencapai kesimpulan tertentu tidak jelas pada bila-bila masa semasa operasinya. Oleh itu, hampir mustahil untuk menjelaskan ralat sedemikian, walaupun untuk pakar data yang berpengalaman.
Isu ketelusan AI amat meruncing dalam industri penjagaan kesihatan. Pertimbangkan contoh ini: Hospital mempunyai rangkaian saraf atau model AI kotak hitam yang mendiagnosis penyakit otak pesakit. Sistem pintar dilatih untuk mencari corak dalam data daripada rekod lalu dan fail perubatan sedia ada pesakit. Dengan analitik ramalan, jika model meramalkan bahawa subjek akan terdedah kepada penyakit berkaitan otak pada masa hadapan, sebab di sebalik ramalan selalunya tidak 100 peratus jelas. Untuk kedua-dua institusi swasta dan awam, berikut adalah 4 sebab utama untuk menjadikan usaha AI lebih telus:
Seperti yang dinyatakan sebelum ini, pihak berkepentingan perlu mengetahui tentang model AI The inner kerja dan alasan di sebalik proses membuat keputusan, terutamanya untuk cadangan dan keputusan yang tidak dijangka. Sistem AI yang boleh dijelaskan boleh memastikan bahawa algoritma membuat cadangan dan keputusan yang adil dan beretika pada masa hadapan. Ini boleh meningkatkan pematuhan dan kepercayaan dalam rangkaian neural AI dalam organisasi.
Kepintaran buatan yang boleh dijelaskan selalunya boleh menghalang ralat sistem daripada berlaku dalam operasi kerja. Lebih banyak pengetahuan tentang kelemahan sedia ada dalam model AI boleh digunakan untuk menghapuskannya. Akibatnya, organisasi mempunyai kawalan yang lebih besar ke atas output yang disediakan oleh sistem AI.
Seperti yang kita sedia maklum, model dan sistem kecerdasan buatan memerlukan penambahbaikan berterusan dari semasa ke semasa. Algoritma AI yang boleh dijelaskan akan menjadi lebih pintar semasa kemas kini sistem biasa.
Petunjuk maklumat baharu akan membolehkan manusia menemui penyelesaian kepada masalah utama era semasa, seperti ubat atau terapi untuk merawat HIV AIDS dan kaedah untuk menangani gangguan kekurangan perhatian . Lebih-lebih lagi, penemuan ini akan disokong oleh bukti kukuh dan rasional untuk pengesahan universal.
Dalam sistem dipacu AI, ketelusan boleh dalam bentuk pernyataan analitikal dalam bahasa semula jadi yang boleh difahami oleh manusia, visualisasi yang menyerlahkan data yang digunakan untuk membuat keputusan output, visualisasi yang menunjukkan titik yang menyokong keputusan tertentu Kes, atau pernyataan yang menyerlahkan sebab sistem menolak keputusan lain.
Dalam beberapa tahun kebelakangan ini, bidang kecerdasan buatan yang boleh dijelaskan telah berkembang dan berkembang. Paling penting, jika aliran ini berterusan pada masa hadapan, perniagaan akan dapat menggunakan AI yang boleh dijelaskan untuk meningkatkan output mereka sambil memahami rasional di sebalik setiap keputusan penting yang dikuasakan AI.
Walaupun ini adalah sebab mengapa AI perlu lebih telus, masih terdapat beberapa halangan yang menghalang perkara yang sama daripada berlaku. Beberapa halangan ini termasuk:
Adalah diketahui bahawa AI yang boleh dijelaskan boleh meningkatkan aspek seperti keadilan, kepercayaan dan kesahihan sistem AI. Walau bagaimanapun, sesetengah organisasi mungkin kurang berminat untuk meningkatkan akauntabiliti sistem pintar mereka, kerana AI yang boleh dijelaskan boleh menimbulkan pelbagai masalah. Beberapa isu ini ialah:
Mencuri butiran penting tentang cara model AI dijalankan.
Ancaman serangan siber daripada entiti luar disebabkan peningkatan kesedaran tentang kelemahan sistem.
Selain itu, ramai yang percaya bahawa mendedahkan dan mendedahkan data sulit membuat keputusan dalam sistem AI menyebabkan organisasi terdedah kepada tindakan undang-undang atau tindakan kawal selia.
Untuk mengelak daripada dipengaruhi oleh "paradoks ketelusan" ini, syarikat mesti mempertimbangkan risiko yang berkaitan dengan AI yang boleh dijelaskan berbanding faedahnya yang jelas. Perniagaan mesti menguruskan risiko ini dengan berkesan sambil memastikan maklumat yang dijana oleh sistem AI yang boleh dijelaskan tidak dicairkan.
Tambahan pula, syarikat mesti memahami dua perkara: Pertama, kos yang berkaitan dengan menjadikan AI telus seharusnya tidak menghalang mereka daripada menyepadukan sistem sedemikian. Perniagaan mesti membangunkan pelan pengurusan risiko yang memuatkan model yang boleh ditafsir supaya maklumat kritikal yang mereka berikan kekal sulit. Kedua, perniagaan mesti menambah baik rangka kerja keselamatan siber mereka untuk mengesan dan meneutralkan kelemahan dan ancaman siber yang boleh membawa kepada pelanggaran data.
Pembelajaran mendalam adalah bahagian penting dalam kecerdasan buatan. Model pembelajaran mendalam dan rangkaian saraf sering dilatih dengan cara yang tidak diselia. Rangkaian saraf pembelajaran mendalam ialah komponen utama kecerdasan buatan, terlibat dalam pengecaman dan pemprosesan imej, pengecaman pertuturan lanjutan, pemprosesan bahasa semula jadi dan terjemahan sistem. Malangnya, walaupun komponen AI ini boleh mengendalikan tugas yang lebih kompleks daripada model pembelajaran mesin konvensional, pembelajaran mendalam juga memperkenalkan isu kotak hitam ke dalam operasi dan tugasan harian.
Seperti yang kita tahu, rangkaian saraf boleh meniru kerja otak manusia. Struktur rangkaian neural buatan adalah untuk meniru rangkaian neural sebenar. Rangkaian saraf dicipta daripada beberapa lapisan nod yang saling berkaitan dan lapisan "tersembunyi" yang lain. Walaupun nod saraf ini melakukan operasi logik dan matematik asas untuk membuat kesimpulan, mereka juga cukup pintar dan intuitif untuk memproses data sejarah dan menjana hasil daripadanya. Operasi yang benar-benar kompleks melibatkan pelbagai lapisan saraf dan berbilion pembolehubah matematik. Oleh itu, output yang dijana daripada sistem ini mempunyai sedikit peluang untuk disahkan dan disahkan sepenuhnya oleh pakar AI dalam organisasi.
Organisasi seperti Deloitte dan Google sedang berusaha untuk mencipta alat dan aplikasi digital yang keluar dari kotak hitam dan mendedahkan data yang digunakan untuk membuat keputusan AI kritikal untuk meningkatkan ketelusan dalam sistem pintar.
Untuk menjadikan AI lebih bertanggungjawab, organisasi mesti membayangkan semula strategi tadbir urus AI sedia ada mereka. Berikut ialah beberapa bidang utama yang tadbir urus yang dipertingkatkan boleh mengurangkan isu AI berasaskan ketelusan.
Pada peringkat awal, organisasi boleh mengutamakan kepercayaan dan ketelusan apabila membina sistem AI dan melatih rangkaian saraf. Memberi perhatian yang teliti tentang cara penyedia perkhidmatan dan vendor AI mereka bentuk rangkaian AI mereka boleh memberi amaran kepada pembuat keputusan utama dalam organisasi kepada soalan awal tentang keupayaan dan ketepatan model AI. Dengan cara ini, terdapat pendekatan langsung untuk mendedahkan beberapa isu berasaskan ketelusan AI semasa fasa reka bentuk sistem untuk diperhatikan oleh organisasi.
Memandangkan peraturan AI di seluruh dunia menjadi semakin ketat dari segi tanggungjawab AI, organisasi benar-benar boleh mendapat manfaat daripada model dan sistem AI mereka mematuhi norma dan piawaian ini. Organisasi mesti mendorong vendor AI mereka untuk mencipta sistem AI yang boleh dijelaskan. Untuk menghapuskan berat sebelah dalam algoritma AI, perniagaan boleh mendekati penyedia perkhidmatan berasaskan awan dan bukannya mengupah pakar dan pasukan data yang mahal. Organisasi mesti meringankan beban pematuhan dengan mengarahkan penyedia perkhidmatan awan dengan jelas untuk menanda semua kotak berkaitan pematuhan semasa pemasangan dan pelaksanaan sistem AI di tempat kerja mereka. Selain mata ini, organisasi juga boleh memasukkan mata seperti privasi dan keselamatan data dalam rancangan tadbir urus AI mereka.
Kami telah membuat beberapa kemajuan teknologi yang paling menakjubkan sejak permulaan abad ini, termasuk kecerdasan buatan dan pembelajaran mendalam. Nasib baik, walaupun AI yang boleh dijelaskan 100% belum wujud, konsep sistem telus yang dikuasakan AI bukanlah impian yang tidak boleh dicapai. Terpulang kepada organisasi yang melaksanakan sistem ini untuk meningkatkan tadbir urus AI mereka dan mengambil risiko untuk mencapainya.
Atas ialah kandungan terperinci Adakah mungkin untuk menjadikan kecerdasan buatan lebih telus?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!