Rumah > Artikel > Peranti teknologi > Tiga cara penyelidik boleh memahami pembuatan keputusan AI dengan betul
Memahami pembuatan keputusan AI adalah penting untuk penyelidik, penggubal dasar dan orang awam. Nasib baik, ada cara untuk memastikan kami belajar lebih banyak. Model pembelajaran mendalam yang digunakan oleh syarikat dan ahli akademik AI yang canggih telah menjadi sangat kompleks sehinggakan para penyelidik yang membina model juga mengalami kesukaran untuk memahami keputusan yang dibuat.
Ini paling jelas ditunjukkan dalam kejohanan tertentu. Dalam permainan ini, saintis data dan pemain Go profesional sering keliru dengan pembuatan keputusan kecerdasan buatan semasa permainan kerana ia membuat permainan tidak formal yang tidak dianggap sebagai gerakan terkuat.
Untuk lebih memahami model yang mereka bina, penyelidik AI telah membangunkan tiga kaedah tafsiran utama. Ini adalah kaedah penjelasan tempatan, menerangkan hanya satu keputusan khusus dan bukannya keputusan keseluruhan model, yang boleh mencabar berdasarkan skala.
Melalui atribusi ciri, model AI akan mengenal pasti bahagian input mana yang penting untuk keputusan tertentu. Untuk sinar-X, penyelidik boleh melihat peta haba atau piksel individu yang dianggap paling penting oleh model untuk keputusannya.
Menggunakan tafsiran atribusi ciri ini, adalah mungkin untuk menyemak sama ada korelasi palsu wujud. Contohnya, ia menunjukkan sama ada piksel dalam tera air diserlahkan atau sama ada piksel dalam tumor sebenar diserlahkan.
Apabila membuat keputusan, kita mungkin keliru dan tertanya-tanya mengapa AI melakukan keputusan ini atau itu. Memandangkan AI digunakan dalam tetapan berisiko tinggi seperti penjara, insurans atau pinjaman gadai janji, memahami faktor penolakan AI atau sebab rayuan seharusnya membantu mereka diluluskan pada kali seterusnya mereka memohon.
Faedah pendekatan tafsiran kontrafaktual ialah ia memberitahu anda dengan tepat cara input perlu diubah untuk membalikkan keputusan, yang mungkin mempunyai kegunaan praktikal. Bagi mereka yang memohon gadai janji tetapi tidak mendapatnya, penjelasan ini akan memberitahu mereka apa yang perlu mereka lakukan untuk mencapai keputusan yang mereka inginkan.
Penjelasan tentang kepentingan sampel memerlukan akses kepada data asas di sebalik model. Jika penyelidik menyedari apa yang mereka fikirkan sebagai ralat, mereka boleh menjalankan sampel tafsiran kepentingan untuk melihat sama ada AI telah diberi data yang tidak dapat dikira, yang membawa kepada ralat dalam pertimbangan.
Atas ialah kandungan terperinci Tiga cara penyelidik boleh memahami pembuatan keputusan AI dengan betul. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!