Rumah > Artikel > Peranti teknologi > Bagaimana untuk mengelakkan risiko kecerdasan buatan?
Sistem Kepintaran Buatan dan projek AI menjadi semakin biasa hari ini apabila perniagaan memanfaatkan kuasa teknologi baru muncul ini untuk mengautomasikan pembuatan keputusan dan meningkatkan kecekapan.
Jika perniagaan anda melaksanakan projek AI berskala besar, bagaimanakah anda perlu menyediakan Berikut ialah tiga risiko paling penting yang berkaitan dengan AI, dan cara mencegah serta mengurangkannya?
Orang ramai sangat mengambil berat tentang privasi mereka, dan kecerdasan buatan pengecaman muka berkembang pesat dalam beberapa aspek, menimbulkan kebimbangan etika tentang privasi dan pengawasan. Sebagai contoh, teknologi itu boleh membenarkan syarikat menjejaki tingkah laku dan juga emosi pengguna tanpa persetujuan mereka. Kerajaan A.S. baru-baru ini mencadangkan "Rang Undang-undang Hak Kecerdasan Buatan" untuk menghalang teknologi AI daripada menyebabkan kemudaratan sebenar yang bertentangan dengan nilai teras, termasuk hak asas untuk privasi.
Pemimpin IT perlu memberitahu pengguna tentang data yang sedang dikumpulkan dan mendapatkan persetujuan mereka. Selain itu, latihan dan pelaksanaan yang betul berkenaan set data adalah penting untuk mencegah pelanggaran data dan kemungkinan pelanggaran keselamatan.
Uji sistem AI untuk memastikan ia mencapai matlamatnya tanpa akibat yang tidak diingini, seperti membenarkan penggodam menggunakan data biometrik palsu untuk mengakses maklumat sensitif. Melaksanakan pengawasan sistem AI akan membolehkan perniagaan menghentikan atau membalikkan tindakannya apabila perlu.
Banyak sistem kecerdasan buatan yang menggunakan pembelajaran mesin adalah legap, bermakna tidak jelas cara mereka membuat keputusan. Sebagai contoh, kajian menyeluruh data gadai janji menunjukkan bahawa alat AI ramalan yang digunakan untuk meluluskan atau menolak pinjaman adalah kurang tepat untuk pemohon minoriti. Kelegapan teknologi melanggar "hak untuk penjelasan" pemohon yang telah ditolak pinjaman.
Apabila alat AI/ML perusahaan membuat keputusan penting untuk penggunanya, ia perlu memastikan bahawa mereka dimaklumkan dan diberi penjelasan lengkap tentang sebab keputusan itu dibuat.
Pasukan AI perusahaan juga seharusnya dapat menjejaki faktor utama yang membawa kepada setiap keputusan dan mendiagnosis sebarang ralat sepanjang perjalanan. Dokumentasi dalaman yang dihadapi pekerja dan dokumentasi yang dihadapi pelanggan luaran harus menerangkan cara dan sebab sistem AI berfungsi dengan cara yang sama.
Satu kajian baru-baru ini menunjukkan bahawa sistem kecerdasan buatan yang dilatih pada data berat sebelah mengukuhkan corak diskriminasi, bermula daripada kurang pengambilan dalam penyelidikan perubatan kepada pengurangan penyertaan saintis , malah pesakit minoriti kurang bersedia untuk mengambil bahagian dalam penyelidikan.
Orang ramai perlu bertanya kepada diri sendiri: jika akibat yang tidak diingini berlaku, siapa atau kumpulan manakah yang akan menjejaskan semua pengguna secara sama rata, atau hanya kumpulan tertentu
Lihat dengan teliti Data sejarah untuk menilai sama ada sebarang kecenderungan yang berpotensi telah diperkenalkan atau dikurangkan. Faktor yang sering diabaikan ialah kepelbagaian pasukan pembangunan syarikat, dan pasukan yang lebih pelbagai sering membawa kepada proses dan keputusan yang lebih adil.
Untuk mengelakkan bahaya yang tidak diingini, organisasi perlu memastikan semua pihak berkepentingan daripada pasukan pembangunan, produk, audit dan tadbir urus AI/ML memahami sepenuhnya prinsip, nilai dan pelan kawalan peringkat tinggi yang membimbing projek AI organisasi . Dapatkan penilaian bebas untuk mengesahkan bahawa semua projek adalah sejajar dengan prinsip dan nilai ini.
Atas ialah kandungan terperinci Bagaimana untuk mengelakkan risiko kecerdasan buatan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!