Rumah > Artikel > Peranti teknologi > "Garis Panduan Pembangunan Keselamatan Sistem AI" pertama di dunia telah dikeluarkan, mencadangkan empat aspek keperluan penyeliaan keselamatan
Pada 26 November 2023, pihak berkuasa kawal selia keselamatan siber dari 18 negara termasuk Amerika Syarikat, United Kingdom dan Australia bersama-sama mengeluarkan "Garis Panduan Pembangunan Keselamatan Sistem AI" pertama di dunia untuk melindungi model kecerdasan buatan daripada gangguan berniat jahat , dan menggesa syarikat AI untuk memberi lebih perhatian kepada "keselamatan melalui reka bentuk" apabila membangunkan atau menggunakan model AI.
Agensi Keselamatan Siber dan Infrastruktur (CISA) A.S., sebagai salah satu peserta utama, menyatakan bahawa dunia sedang mengalami titik perubahan dalam perkembangan pesat teknologi AI, dan teknologi AI berkemungkinan besar yang paling berpengaruh teknologi hari ini. Walau bagaimanapun, memastikan keselamatan siber adalah kunci untuk membina sistem AI yang selamat, boleh dipercayai dan boleh dipercayai. Untuk tujuan ini, kami telah menyatukan pihak berkuasa kawal selia keselamatan siber beberapa negara dan bekerjasama dengan pakar teknikal daripada syarikat seperti Google, Amazon, OpenAI dan Microsoft untuk bersama-sama menulis dan menerbitkan garis panduan ini, bertujuan untuk meningkatkan keselamatan aplikasi teknologi AI
Difahamkan bahawa garis panduan ini adalah dokumen panduan pertama di dunia untuk keselamatan pembangunan sistem AI yang dikeluarkan oleh organisasi rasmi. Garis panduan tersebut dengan jelas menghendaki syarikat AI mesti mengutamakan memastikan keputusan yang selamat untuk pelanggan, secara aktif menyokong mekanisme ketelusan dan akauntabiliti untuk aplikasi AI, dan membina struktur pengurusan organisasi dengan reka bentuk keselamatan sebagai keutamaan utama. Garis panduan ini bertujuan untuk meningkatkan keselamatan siber AI dan membantu memastikan reka bentuk, pembangunan dan penggunaan teknologi AI yang selamat.
Selain itu, berdasarkan pengalaman lama kerajaan AS dalam pengurusan risiko keselamatan siber, garis panduan tersebut memerlukan semua syarikat R&D AI menjalankan ujian yang mencukupi sebelum mengeluarkan alat AI baharu secara terbuka untuk memastikan langkah keselamatan telah diambil untuk meminimumkan bahaya sosial (seperti sebagai prejudis dan diskriminasi) dan isu privasi. Garis panduan ini juga memerlukan syarikat R&D AI untuk komited untuk memudahkan pihak ketiga menemui dan melaporkan kelemahan dalam sistem AI mereka melalui sistem hadiah pepijat, supaya kelemahan dapat ditemui dan dibaiki dengan cepat
Secara khusus, garis panduan yang dikeluarkan kali ini mengemukakan garis panduan untuk pembangunan sistem AI yang selamat. dalam garis panduan. Ini bermakna mereka harus secara proaktif mengambil langkah untuk melindungi produk AI daripada serangan. Untuk mematuhi garis panduan, pembangun AI harus mengutamakan keselamatan dalam proses membuat keputusan mereka dan bukan hanya menumpukan pada fungsi dan prestasi produk. Garis panduan ini juga mengesyorkan bahawa produk menyediakan pilihan aplikasi lalai paling selamat dan dengan jelas menyampaikan kepada pengguna risiko mengatasi konfigurasi lalai itu. Tambahan pula, seperti yang dikehendaki oleh garis panduan, pembangun sistem AI harus bertanggungjawab terhadap hasil aplikasi hiliran, dan bukannya bergantung pada pelanggan untuk mengawal keselamatan
Petikan daripada permintaan: “Pengguna (sama ada 'pengguna akhir' atau penyedia yang menyepadukan AI luaran komponen ) sering kekurangan keterlihatan dan kepakaran yang mencukupi untuk memahami sepenuhnya, menilai atau menangani risiko yang berkaitan dengan sistem AI yang mereka gunakan Oleh itu, menurut prinsip 'keselamatan melalui reka bentuk', penyedia komponen AI harus mengambil berat tentang keselamatan pengguna hiliran dalam rantaian bekalan Bertanggungjawab atas akibatnya ”
2 Beri perhatian kepada keselamatan rantaian bekalan yang kompleksPemaju alat AI sering bergantung pada komponen pihak ketiga apabila mereka bentuk produk mereka sendiri, seperti model asas. set data latihan dan API. Rangkaian pembekal yang besar akan membawa permukaan serangan yang lebih besar kepada sistem AI, dan mana-mana pautan yang lemah di dalamnya mungkin mempunyai kesan negatif terhadap keselamatan produk. Oleh itu, garis panduan memerlukan pembangun menilai sepenuhnya risiko keselamatan apabila membuat keputusan untuk merujuk komponen pihak ketiga. Apabila bekerja dengan pihak ketiga, pembangun harus menyemak dan memantau postur keselamatan vendor, memerlukan vendor mematuhi piawaian keselamatan yang sama seperti organisasi mereka sendiri dan melaksanakan pengimbasan dan kuarantin kod pihak ketiga yang diimport.
Petikan yang diminta: “Pembangun sistem kritikal misi perlu bersedia untuk beralih kepada penyelesaian alternatif jika komponen pihak ketiga tidak memenuhi piawaian keselamatan Perusahaan boleh menggunakan sumber seperti Panduan Rantaian Bekalan NCSC, serta Perisian Tahap Rantaian Bekalan Artifak (SLSA) dan sumber lain untuk menjejaki rantaian bekalan dan pensijilan kitaran hayat pembangunan perisian ”
3 Pertimbangkan risiko unik yang dihadapi dalam aplikasi AIAkan terdapat beberapa ancaman unik apabila sistem AI digunakan (seperti. serangan suntikan segera) dan keracunan data), jadi pembangun perlu mempertimbangkan sepenuhnya faktor keselamatan unik sistem AI. Komponen penting pendekatan "selamat melalui reka bentuk" kepada sistem AI ialah menyediakan pagar keselamatan untuk keluaran model AI untuk mengelakkan kebocoran data sensitif dan mengehadkan operasi komponen AI yang digunakan untuk tugas seperti penyuntingan fail. Pembangun harus menggabungkan senario ancaman khusus AI ke dalam ujian prakeluaran dan memantau input pengguna untuk percubaan berniat jahat untuk mengeksploitasi sistem.
Petikan yang diminta: “Istilah ‘adversarial machine learning’ (AML) digunakan untuk menerangkan eksploitasi kelemahan keselamatan dalam komponen pembelajaran mesin, termasuk perkakasan, perisian, aliran kerja dan rantaian bekalan membolehkan penyerang mengeksploitasi keupayaan pembelajaran mesin Tingkah laku yang tidak dijangka berlaku dalam sistem, termasuk: menjejaskan prestasi klasifikasi atau regresi model, membenarkan pengguna melakukan operasi yang tidak dibenarkan, dan mengekstrak maklumat model yang sensitif ”
: “Apabila perlu, pembangun sistem AI boleh melaporkan isu keselamatan yang mereka hadapi kepada komuniti yang lebih besar , Sebagai contoh, terbitkan pengumuman sebagai tindak balas kepada pendedahan kerentanan, termasuk penghitungan terperinci dan lengkap tentang kelemahan biasa Apabila isu keselamatan ditemui, pembangun harus mengambil tindakan untuk mengurangkan dan membetulkan isu tersebut dengan cepat dan sewajarnya." Pautan rujukan:
4 Perkara Utama Garis Panduan Keselamatan Kecerdasan Buatan Global
Atas ialah kandungan terperinci "Garis Panduan Pembangunan Keselamatan Sistem AI" pertama di dunia telah dikeluarkan, mencadangkan empat aspek keperluan penyeliaan keselamatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!