Rumah  >  Artikel  >  Peranti teknologi  >  Bagaimana untuk menguruskan risiko dan keselamatan AI?

Bagaimana untuk menguruskan risiko dan keselamatan AI?

PHPz
PHPzke hadapan
2023-04-19 14:04:051123semak imbas

​Set data yang besar dan sensitif sering digunakan untuk melatih model AI, mewujudkan privasi dan risiko kebocoran data. Penggunaan kecerdasan buatan meningkatkan vektor ancaman organisasi dan mengembangkan permukaan serangannya. AI seterusnya mencipta peluang baharu untuk ralat jinak untuk memberi kesan buruk kepada model dan hasil perniagaan.

Bagaimana untuk menguruskan risiko dan keselamatan AI?

Risiko yang tidak difahami tidak boleh dikurangkan. Tinjauan Gartner terhadap ketua pegawai keselamatan maklumat baru-baru ini mendedahkan bahawa kebanyakan organisasi tidak mempertimbangkan risiko keselamatan dan perniagaan baharu yang ditimbulkan oleh kecerdasan buatan atau kawalan baharu yang mesti mereka sediakan untuk mengurangkan risiko tersebut. Kecerdasan buatan memerlukan langkah pengurusan risiko dan keselamatan baharu serta rangka kerja mitigasi.

Berikut ialah lima keutamaan keselamatan dan pemimpin risiko yang harus ditumpukan untuk mengurus risiko dan keselamatan AI secara berkesan dalam organisasi mereka:

1 Tangkap pendedahan AI

Model pembelajaran mesin adalah legap kepada kebanyakan pengguna, dan tidak seperti sistem perisian umum, kerja dalaman mereka tidak diketahui walaupun oleh pakar yang paling mahir. Saintis data dan pembangun model selalunya memahami perkara yang model pembelajaran mesin mereka cuba lakukan, tetapi mereka tidak boleh sentiasa mentafsir struktur dalaman atau cara algoritmik yang model memproses data.

Kekurangan pemahaman ini sangat mengehadkan keupayaan organisasi untuk mengurus risiko AI. Langkah pertama dalam pengurusan risiko AI ialah menyenaraikan semua model AI yang digunakan dalam organisasi, sama ada ia merupakan komponen perisian pihak ketiga, dibangunkan secara dalaman atau diakses melalui aplikasi perisian sebagai perkhidmatan. Ini harus termasuk mengenal pasti saling bergantung antara pelbagai model. Model kemudiannya disusun berdasarkan impak operasi, dengan mengambil kira bahawa kawalan pengurusan risiko boleh digunakan secara berperingkat berdasarkan keutamaan yang dikenal pasti.

Setelah model dibentangkan, langkah seterusnya ialah menjadikannya sebagai boleh ditafsir atau diterangkan sebaik mungkin. "Kebolehjelasan" bermaksud keupayaan untuk menjana butiran, sebab atau penjelasan yang menjelaskan kefungsian model untuk khalayak tertentu. Ini akan memberikan pengurus risiko dan keselamatan persekitaran untuk mengurus dan mengurangkan risiko perniagaan, sosial, liabiliti dan keselamatan yang timbul daripada hasil model.

2. Meningkatkan kesedaran pekerja melalui aktiviti pendidikan risiko kecerdasan buatan

Kesedaran pekerja adalah bahagian penting dalam pengurusan risiko kecerdasan buatan. Pertama, biarkan semua pemain, termasuk CISO, ketua pegawai privasi, ketua pegawai data dan pegawai undang-undang dan pematuhan, menentukur semula pemikiran mereka tentang AI. Mereka harus memahami bahawa AI adalah "tidak seperti mana-mana aplikasi lain" - ia menimbulkan risiko unik dan memerlukan kawalan khusus untuk mengurangkan risiko tersebut. Kemudian, libatkan pihak berkepentingan perniagaan untuk meluaskan pemahaman tentang risiko AI yang perlu diuruskan.

Bekerjasama dengan pihak berkepentingan ini untuk menentukan cara terbaik untuk membina pengetahuan AI merentas pasukan dan dari semasa ke semasa. Sebagai contoh, lihat jika anda boleh menambah kursus tentang konsep asas AI pada sistem pengurusan pembelajaran perusahaan anda. Bekerjasama dengan jabatan keselamatan aplikasi dan data untuk membantu membina pengetahuan AI di kalangan semua ahli organisasi.

3 Hapuskan pendedahan data AI melalui pelan privasi

Menurut tinjauan Gartner baru-baru ini, privasi dan keselamatan telah dilihat sebagai tiruan. halangan untuk merealisasikan kecerdasan. Mengguna pakai perlindungan data dan prosedur privasi dengan berkesan boleh menghapuskan pendedahan data dalaman dan perkongsian dalam AI.

Terdapat pelbagai kaedah untuk mengakses dan berkongsi data penting sambil masih memenuhi keperluan privasi dan perlindungan data. Tentukan teknologi privasi data, atau gabungan teknologi, yang paling sesuai untuk kes penggunaan khusus organisasi anda. Contohnya, siasat teknik seperti penyamaran data, penjanaan data sintetik atau privasi pembezaan.

Keperluan privasi data harus dipenuhi apabila mengeksport atau mengimport data ke organisasi luar. Dalam senario ini, teknik seperti penyulitan homomorfik sepenuhnya dan pengiraan berbilang pihak yang selamat seharusnya lebih berguna daripada melindungi data daripada pengguna dalaman dan saintis data.

4 Menggabungkan pengurusan risiko ke dalam operasi model

Model AI memerlukan proses tujuan khas sebagai sebahagian daripada operasi model atau ModelOps untuk membolehkan manusia Pintar. , boleh dipercayai dan cekap. Memandangkan faktor persekitaran terus berubah, model AI mesti sentiasa memantau kebocoran nilai perniagaan dan hasil yang tidak dapat diramalkan (dan kadangkala buruk).

Pemantauan yang berkesan memerlukan pemahaman tentang model AI. Proses pengurusan risiko yang berdedikasi mesti menjadi bahagian penting ModelOps untuk menjadikan AI lebih boleh dipercayai, tepat, adil dan berdaya tahan terhadap serangan musuh atau ralat jinak.

Kawalan hendaklah digunakan secara berterusan – contohnya, sepanjang pembangunan model, ujian dan penggunaan serta operasi yang berterusan. Kawalan yang berkesan akan mengesan tingkah laku berniat jahat, ralat jinak dan perubahan yang tidak diingini dalam data atau model AI yang membawa kepada ketidakadilan, rasuah, ketidaktepatan, prestasi dan ramalan model yang lemah serta akibat yang tidak diingini yang lain.

5 Gunakan langkah keselamatan kecerdasan buatan untuk menangani serangan musuh

Mengesan dan menyekat serangan ke atas AI memerlukan teknologi baharu. Serangan berniat jahat pada AI boleh mengakibatkan kerosakan dan kerugian organisasi yang ketara, termasuk kewangan, reputasi atau data yang berkaitan dengan harta intelek, data pelanggan sensitif atau data proprietari. Pemimpin aplikasi yang bekerja dengan keselamatan mesti menambah kawalan pada aplikasi AI mereka untuk mengesan input data anomali, serangan berniat jahat dan ralat input jinak.

Laksanakan set komprehensif kawalan keselamatan perusahaan tradisional sekitar model dan data AI, serta langkah integriti baharu untuk AI, seperti model latihan yang bertolak ansur dengan AI lawan. Akhir sekali, gunakan teknologi penipuan, pengesanan anomali dan pengesanan bot untuk mengelakkan keracunan data AI atau pengesanan ralat input.

Atas ialah kandungan terperinci Bagaimana untuk menguruskan risiko dan keselamatan AI?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam