Rumah  >  Artikel  >  Peranti teknologi  >  Dalam persekitaran kecerdasan buatan hari ini, apakah AI yang boleh dijelaskan?

Dalam persekitaran kecerdasan buatan hari ini, apakah AI yang boleh dijelaskan?

WBOY
WBOYke hadapan
2023-04-11 22:01:151470semak imbas

Dalam persekitaran kecerdasan buatan hari ini, apakah AI yang boleh dijelaskan?

Apabila kecerdasan buatan (AI) menjadi lebih canggih dan diterima pakai secara meluas dalam masyarakat, salah satu set proses dan kaedah yang paling kritikal ialah AI yang boleh dijelaskan, kadangkala dipanggil XAI.

AI yang boleh dijelaskan boleh ditakrifkan sebagai:

Satu set proses dan kaedah yang membantu pengguna manusia memahami dan mempercayai hasil algoritma pembelajaran mesin.

Seperti yang anda boleh rasa, kebolehtafsiran ini sangat penting. Oleh kerana algoritma AI mengawal banyak kawasan, ini membawa risiko berat sebelah, algoritma yang rosak dan masalah lain. Dengan mendayakan ketelusan melalui kebolehjelasan, dunia benar-benar boleh memanfaatkan kuasa kecerdasan buatan.

AI yang boleh dijelaskan, seperti namanya, membantu menerangkan model AI, impaknya dan potensi biasnya. Ia juga memainkan peranan dalam menerangkan ketepatan model, keadilan, ketelusan dan hasil proses membuat keputusan dipacu AI.

Organisasi dipacu AI hari ini harus sentiasa menggunakan proses AI yang boleh dijelaskan untuk membantu membina kepercayaan dan keyakinan terhadap model AI dalam pengeluaran. Dalam persekitaran kecerdasan buatan hari ini, AI yang boleh dijelaskan juga merupakan kunci untuk menjadi perusahaan yang bertanggungjawab.

Oleh kerana sistem AI hari ini sangat maju, manusia sering melakukan proses pengiraan untuk mengesan kembali cara algoritma mencapai keputusannya. Proses itu menjadi "kotak hitam", bermakna ia tidak dapat difahami. Apabila model yang tidak dapat dijelaskan ini dibangunkan terus daripada data, tiada siapa yang dapat memahami perkara yang sedang berlaku.

Melalui AI yang boleh dijelaskan untuk memahami cara sistem AI beroperasi, pembangun boleh memastikan sistem berfungsi dengan betul. Ia juga boleh membantu memastikan model mematuhi piawaian kawal selia dan memberi peluang kepada model untuk dicabar atau diubah.

Perbezaan antara AI dan Teknik serta kaedah untuk membantu memastikan setiap keputusan dalam proses ML dapat dikesan dan dijelaskan. Sebaliknya, AI konvensional sering menggunakan algoritma ML untuk mendapatkan hasil, tetapi adalah mustahil untuk memahami sepenuhnya cara algoritma mendapat keputusan. Dalam kes AI konvensional, adalah sukar untuk menyemak ketepatan, mengakibatkan kehilangan kawalan, akauntabiliti dan kebolehauditan.

Faedah AI Boleh Dijelaskan

Terdapat banyak faedah untuk mana-mana organisasi yang ingin menggunakan AI Boleh Diterangkan, seperti:

Keputusan yang lebih pantas: AI Boleh Diterangkan membolehkan Organisasi dapat untuk memantau dan mengurus model secara sistematik untuk mengoptimumkan hasil perniagaan. Prestasi model boleh dinilai dan dipertingkatkan secara berterusan, dan pembangunan model diperhalusi.
  • Kurangkan risiko: Dengan menggunakan proses AI yang boleh dijelaskan, anda boleh memastikan model AI boleh dijelaskan dan telus. Kawal selia, pematuhan, risiko dan keperluan lain boleh diuruskan sambil meminimumkan overhed pemeriksaan manual. Semua ini juga membantu mengurangkan risiko berat sebelah yang tidak disengajakan.
  • Membina kepercayaan: AI yang boleh dijelaskan membantu membina kepercayaan dalam pengeluaran AI. Model AI boleh dimasukkan ke dalam pengeluaran dengan cepat, kebolehtafsiran boleh dijamin, dan proses penilaian model boleh dipermudahkan dan dibuat lebih telus.
  • Teknologi AI Boleh Dijelaskan

Terdapat beberapa teknologi XAI yang perlu dipertimbangkan oleh semua organisasi, dan terdapat tiga pendekatan utama: ketepatan ramalan, kebolehkesanan dan pemahaman keputusan.

Pendekatan pertama, ketepatan ramalan, adalah kunci kejayaan penggunaan AI dalam operasi seharian. Simulasi boleh dilakukan dan output XAI berbanding keputusan dalam set data latihan, yang boleh membantu menentukan ketepatan ramalan. Salah satu teknik yang lebih popular untuk mencapai ini dipanggil Penjelasan Bebas Model Boleh Ditafsir Setempat (LIME), iaitu teknik untuk mentafsir ramalan pengelas melalui algoritma pembelajaran mesin.
  • Pendekatan kedua ialah kebolehkesanan, yang dicapai dengan mengehadkan cara keputusan dibuat dan mewujudkan skop yang lebih sempit untuk peraturan dan ciri pembelajaran mesin. Salah satu teknologi kebolehkesanan yang paling biasa ialah DeepLIFT, atau Ciri Penting Pembelajaran Dalam. DeepLIFT membandingkan pengaktifan setiap neuron dengan neuron rujukannya sambil menunjukkan pautan yang boleh dikesan antara setiap neuron yang diaktifkan. Ia juga menunjukkan pergantungan antara satu sama lain.
  • Kaedah ketiga ialah pemahaman membuat keputusan, yang berbeza daripada dua kaedah pertama kerana ia berpusatkan manusia. Pemahaman keputusan melibatkan mendidik organisasi, terutamanya pasukan yang bekerja dengan AI, supaya mereka boleh memahami cara dan sebab AI membuat keputusan. Pendekatan ini penting untuk membina kepercayaan dalam sistem.
  • Prinsip AI Boleh Dijelaskan

Untuk lebih memahami XAI dan prinsipnya, Institut Piawaian dan Teknologi Kebangsaan (NIST), sekutu Jabatan Perdagangan A.S., menyediakan empat prinsip AI yang boleh dijelaskan. Definisi prinsip:

  • Sistem AI harus memberikan bukti, sokongan atau alasan untuk setiap output.
  • Sistem AI harus memberikan penjelasan yang boleh difahami oleh pengguna.
  • Penjelasan harus menggambarkan dengan tepat proses yang digunakan oleh sistem untuk mencapai outputnya.
  • Sistem AI seharusnya hanya beroperasi di bawah keadaan yang ia direka bentuk dan tidak seharusnya memberikan output apabila mereka tidak mempunyai keyakinan yang mencukupi terhadap hasilnya.

Prinsip ini boleh disusun lagi sebagai:

  • Bermakna: Untuk melaksanakan prinsip yang bermakna, pengguna harus memahami penjelasan yang diberikan. Ini juga bermakna, memandangkan penggunaan algoritma AI oleh pelbagai jenis pengguna, mungkin terdapat pelbagai tafsiran. Contohnya, dalam kes kereta pandu sendiri, satu penjelasan mungkin seperti ini... "AI mengklasifikasikan beg plastik di jalan raya sebagai batu dan oleh itu mengambil tindakan untuk mengelak daripada melanggarnya." terpakai kepada pemacu, Tidak begitu berguna untuk pembangun AI yang ingin membetulkan masalah ini. Dalam kes ini, pembangun mesti memahami sebab salah klasifikasi berlaku.
  • Ketepatan penerangan: Tidak seperti ketepatan output, ketepatan penjelasan melibatkan algoritma AI yang menerangkan dengan tepat cara ia mencapai outputnya. Sebagai contoh, jika algoritma kelulusan pinjaman mentafsir keputusan berdasarkan pendapatan pemohon sedangkan ia sebenarnya berdasarkan kediaman pemohon, maka tafsiran ini akan menjadi tidak tepat.
  • Had Pengetahuan: Had pengetahuan AI boleh dicapai dalam dua cara, yang melibatkan input di luar kepakaran sistem. Sebagai contoh, jika anda membina sistem untuk mengklasifikasikan spesies burung dan diberi gambaran "epal", ia sepatutnya dapat mentafsir bahawa input itu bukan burung. Jika sistem diberi gambar yang kabur, ia sepatutnya dapat melaporkan bahawa ia tidak dapat mengenal pasti burung dalam imej, atau bahawa pengenalannya mempunyai keyakinan yang sangat rendah.

Peranan data dalam AI boleh dijelaskan

Salah satu komponen terpenting AI boleh dijelaskan ialah data.

Menurut Google, mengenai data dan AI yang boleh dijelaskan, "sistem AI paling baik difahami melalui data latihan dan proses latihan, dan model AI yang terhasil bergantung pada penyepaduan Keupayaan AI yang terlatih model untuk dipetakan kepada set data tepat yang digunakan untuk melatih mereka, serta keupayaan untuk memeriksa data dengan teliti.

Untuk meningkatkan kebolehtafsiran model, adalah penting untuk memberi perhatian kepada data latihan. Pasukan harus mengenal pasti sumber data yang digunakan untuk melatih algoritma, kesahihan dan etika mendapatkan data, sebarang potensi berat sebelah dalam data dan langkah yang boleh diambil untuk mengurangkan sebarang berat sebelah.

Satu lagi aspek penting data dan XAI ialah data yang tidak berkaitan dengan sistem harus dikecualikan. Untuk mencapai matlamat ini, data yang tidak berkaitan tidak boleh dimasukkan ke dalam set latihan atau data input.

Google mengesyorkan satu set amalan untuk mencapai kebolehjelasan dan kebertanggungjawaban:

  • Rancang pilihan untuk mengejar kebolehjelasan
  • Fikirkan kebolehjelasan sebagai bahagian Teras pengalaman pengguna
  • Reka bentuk model yang boleh ditafsir
  • Pilih metrik untuk menggambarkan matlamat akhir dan tugasan akhir
  • Fahami model terlatih
  • Lwns model Penerangan komunikasi pengguna
  • Lakukan secara meluas ujian untuk memastikan sistem AI berfungsi seperti yang diharapkan

Dengan mengikuti amalan yang disyorkan ini, organisasi boleh memastikan pelaksanaan AI yang boleh dijelaskan. Ini adalah kunci untuk mana-mana organisasi dipacu AI dalam persekitaran hari ini.

Atas ialah kandungan terperinci Dalam persekitaran kecerdasan buatan hari ini, apakah AI yang boleh dijelaskan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam