Rumah >Peranti teknologi >AI >Risiko terpilih boleh meningkatkan keadilan dan ketepatan AI
Penyelidik di Makmal Kepintaran Buatan MIT telah menerbitkan kertas kerja baharu yang bertujuan untuk mengecam penggunaan regresi terpilih dalam senario tertentu, kerana teknik ini boleh mengurangkan prestasi keseluruhan model untuk kumpulan yang kurang diwakili dalam set data .
Kumpulan yang kurang diwakili ini cenderung kepada wanita dan orang kulit berwarna, dan pengabaian mereka ini telah membawa kepada beberapa komen paling kontroversi tentang perkauman AI dan Laporan seksisme. Dalam satu akaun, kecerdasan buatan yang digunakan untuk penilaian risiko salah menandakan banduan kulit hitam dua kali lebih mungkin daripada banduan kulit putih. Dalam kes lain, gambar lelaki tanpa sebarang latar belakang dikenal pasti sebagai doktor dan suri rumah pada kadar yang lebih tinggi daripada wanita.
Dengan regresi terpilih, model AI boleh membuat dua pilihan untuk setiap input: meramal atau menahan diri. Model hanya membuat ramalan jika ia yakin tentang keputusan itu, dan melalui beberapa ujian prestasi model dipertingkatkan dengan mengecualikan input yang tidak boleh dinilai dengan betul.
Walau bagaimanapun, apabila input dialih keluar, ia menguatkan bias yang sudah ada dalam set data. Ini akan membawa kepada ketidaktepatan selanjutnya untuk kumpulan yang kurang diwakili sebaik sahaja model AI digunakan ke dalam kehidupan sebenar kerana ia tidak boleh mengalih keluar atau menolak kumpulan yang kurang diwakili sebagaimana yang boleh dilakukan semasa pembangunan. Pada akhirnya anda ingin memastikan anda mempertimbangkan kadar ralat merentas kumpulan dengan cara yang wajar, dan bukannya meminimumkan beberapa kadar ralat yang luas untuk model anda.
Penyelidik MIT juga memperkenalkan teknik baharu yang direka untuk meningkatkan prestasi model dalam setiap subkumpulan. Teknik ini dipanggil risiko terpilih monotonic, di mana satu model tidak mengelak dan sebaliknya memasukkan atribut sensitif seperti bangsa dan jantina, manakala yang lain tidak. Pada masa yang sama, kedua-dua model membuat keputusan, dan model tanpa data sensitif digunakan sebagai penentukuran untuk berat sebelah dalam set data.
Menghasilkan konsep keadilan yang betul untuk masalah khusus ini adalah satu cabaran. Tetapi dengan menguatkuasakan kriteria ini, risiko pemilihan monotonik, kami boleh memastikan bahawa prestasi model sebenarnya menjadi lebih baik merentas semua subkumpulan apabila mengurangkan liputan.
Apabila diuji menggunakan set data Medicare dan set data jenayah, teknik baharu ini dapat mengurangkan kadar ralat untuk kumpulan yang kurang diwakili tanpa memberi kesan ketara kepada prestasi keseluruhan model. Para penyelidik merancang untuk menggunakan teknologi itu pada aplikasi baharu, seperti harga perumahan, purata mata gred pelajar dan kadar faedah pinjaman, dan melihat sama ada ia boleh digunakan untuk tugas lain.
Atas ialah kandungan terperinci Risiko terpilih boleh meningkatkan keadilan dan ketepatan AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!