Rumah  >  Artikel  >  Peranti teknologi  >  AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks

AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks

WBOY
WBOYasal
2024-06-03 22:08:09800semak imbas

Penterjemah |. output ialah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya.

Beberapa sebab mengapa AI yang boleh dijelaskan adalah penting

Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu membuat keputusan.

Pematuhan Peraturan: Undang-undang seperti Peraturan Perlindungan Data Umum (GDPR) Kesatuan Eropah memerlukan penjelasan untuk keputusan automatik yang mempengaruhi individu. AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks

Penyahpepijatan dan Penambahbaikan Model: Mendapat cerapan tentang keputusan model boleh membantu pembangun mengenal pasti dan membetulkan bias atau ketidaktepatan. . jenis model dan aplikasi pekerja pintar.

  • Kaedah Agnostik Model
  • (1) Penjelasan Agnostik Model yang Boleh Ditafsirkan Secara Tempatan (LIME)
  • teknologi Pentafsiran Egnostik yang boleh ditafsirkan kepada model LIM ramalan daripada model pembelajaran mesin yang kompleks yang boleh difahami oleh manusia. Pada asasnya, manfaat LIME terletak pada kesederhanaan dan keupayaannya untuk menerangkan kelakuan mana-mana pengelas atau regressor, tanpa mengira kerumitannya. LIME berfungsi dengan mengambil sampel di sekitar data input dan kemudian menggunakan model ringkas (seperti model regresi linear) untuk menganggarkan ramalan model kompleks asal. Model mudah mempelajari cara mentafsir ramalan model kompleks pada input tertentu supaya proses membuat keputusan model kompleks dapat difahami. Dengan cara ini, walaupun model kompleks adalah kotak hitam, kita boleh menerangkan ramalan mana-mana pengelas atau regressor melalui tafsiran model mudah

LIME dengan menggunakan model boleh tafsir untuk menganggarkannya secara setempat. Idea utama adalah untuk mengganggu data input dan memerhatikan bagaimana ramalan berubah, yang membantu mengenal pasti ciri yang mempengaruhi ramalan dengan ketara.

Secara matematik, untuk contoh tertentu (x) dan model (f), LIME menjana set data sampel baharu dan melabelkannya dengan (f). Kemudian, ia mempelajari model mudah (seperti model linear) berdasarkan (f) yang setia setempat kepada (f), meminimumkan objektif berikut:

[ xi(x) = underset{g dalam G }{teks {argmin}} ; L(f, g, pi_x) + Omega(g) ]

di mana (L) ialah ukuran betapa tidak setianya (g) apabila menghampiri (f) sekitar (x ), ( pi_x) ialah ukuran kehampiran yang mentakrifkan kejiranan setempat di sekitar (x), dan (Omega) menghukum kerumitan (g).

(2) Sh

apley aditivitipenjelasan (SHAP) ) dengan menyatakan Setiap ciri yang diramalkan diberikan nilai penting untuk membantu orang ramai memahami output model pembelajaran mesin. Bayangkan orang ramai cuba meramalkan harga rumah berdasarkan ciri-ciri seperti saiz, umur dan lokasinya. Ciri tertentu mungkin meningkatkan harga yang dijangkakan, manakala ciri lain mungkin menurunkan harga yang dijangkakan. Nilai SHAP membantu seseorang mengukur dengan tepat sumbangan setiap ciri kepada ramalan akhir berbanding ramalan garis dasar (ramalan purata set data).

Nilai SHAP bagi ciri (i) ditakrifkan sebagai:

[ phi_i = sum_{S subseteq F settolak {i}} frac{|S|!(|F| - | |. - 1)!}{|F|!} [f_x(S cup {i}) - f_x(S)] ]

di mana, F) ialah set semua ciri, S) ialah tidak termasuk ( Subset ciri i), (f_x(S)) ialah ramalan set ciri S), dan jumlahnya ialah semua subset ciri yang mungkin. Formula ini memastikan bahawa sumbangan setiap ciri diagihkan secara adil berdasarkan kesannya terhadap ramalan.

Kaedah khusus model (1) Mekanisme perhatian dalam rangkaian neural

Peningkatan perhatian bagi bahagian-bahagian rangkaian saraf yang paling penting untuk meramalkan bahagian-bahagian saraf yang relevan. . Dalam senario model jujukan ke jujukan, berat perhatian (alpha_{tj}) untuk langkah masa sasaran (t) dan langkah masa sumber (j) dikira sebagai:

[ alpha_{tj} = frac {exp(e_{tj})}{sum_{k=1}^{T_s} exp(e_{tk})} ]

di mana (e_{tj}) ialah fungsi pemarkahan yang menilai penjajaran antara input pada kedudukan (j) dan output pada kedudukan (t), dan (T_s) ialah panjang jujukan input. Mekanisme ini membolehkan model memfokus pada bahagian data input yang berkaitan, dengan itu meningkatkan kebolehtafsiran.

(2) Visualisasi Pokok Keputusan

Pokok keputusan memberikan kebolehtafsiran yang wujud dengan mewakili keputusan sebagai satu siri peraturan yang diperoleh daripada ciri input. Struktur pepohon keputusan membolehkan visualisasi, dengan nod mewakili keputusan berasaskan ciri dan daun mewakili hasil. Perwakilan visual ini membolehkan penjejakan langsung tentang cara ciri input membawa kepada ramalan tertentu.

(3) Pelaksanaan Praktikal dan Pertimbangan Etika

Melaksanakan AI yang boleh dijelaskan memerlukan pertimbangan yang teliti terhadap jenis model, keperluan aplikasi dan khalayak sasaran untuk penjelasan. Ia juga penting untuk membuat pertukaran antara prestasi model dan kebolehtafsiran. Dari segi etika, adalah penting untuk memastikan keadilan, akauntabiliti dan ketelusan dalam sistem AI. Arah masa depan untuk AI boleh dijelaskan termasuk menyeragamkan rangka kerja penjelasan dan penyelidikan berterusan ke dalam kaedah penjelasan yang lebih cekap.

Kesimpulan

AI yang boleh dijelaskan adalah penting untuk mentafsir model AI/ML yang kompleks, memberikan kepercayaan dan memastikan akauntabiliti dalam aplikasinya. Ia menggunakan teknologi seperti LIME, SHAP, mekanisme perhatian, dan visualisasi pokok keputusan. Apabila bidang ini berkembang, pembangunan kaedah AI boleh tafsiran yang lebih canggih dan terpiawai akan menjadi kritikal untuk menangani keperluan pembangunan perisian dan pematuhan kawal selia yang berkembang.

Tajuk asal: AI Boleh Diterangkan: Mentafsir Model AI/ML Kompleks Pengarang: Rajiv Avacharmal


Atas ialah kandungan terperinci AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn