Rumah > Artikel > Peranti teknologi > 18 negara bersama-sama mengeluarkan garis panduan keselamatan AI
Pusat Keselamatan Siber Kebangsaan (NCSC) UK telah mengeluarkan panduan baharu untuk membantu pembangun dan penyedia sistem AI "membina sistem AI yang berfungsi seperti yang dimaksudkan, tersedia apabila diperlukan, dan tidak memberikan akses tanpa kebenaran kepada
Garis panduan untuk membangunkan sistem AI yang selamat termasuk empat peringkat utama kitaran hayat pembangunan aplikasi ML
Reka bentuk keselamatan bergantung kepada Semua yang terlibat - pemilik sistem, pembangun dan pengguna - menyedari keselamatan yang unik risiko yang dihadapi oleh sistem AI dan diajar cara untuk mengelakkan risiko ini.
Ia disebut dalam garis panduan: "Ancaman sistem harus dimodelkan dan sistem harus direka bentuk dari perspektif keselamatan, fungsi dan prestasi." Selain itu, apabila memilih model AI, pembangun harus mempertimbangkan manfaat keselamatan dan pertukaran (bukan lebih kompleks Lebih baik)
Memastikan keselamatan rantaian bekalan adalah prasyarat untuk mencapai pembangunan yang selamat Pada masa yang sama, adalah perlu untuk melindungi aset (seperti model, data, gesaan, perisian, log, dll.), merekodkan gesaan. untuk model, set data dan sistem metadata, dan teknologi pengurusan Hutang
Penyerahan selamat memerlukan infrastruktur yang selamat (dalam setiap bahagian kitaran hayat sistem) dan perlindungan berterusan skema dan data daripada akses langsung dan tidak langsung. Untuk menangani insiden keselamatan (tidak dapat dielakkan), respons insiden yang komprehensif, peningkatan dan pelan pemulihan mesti dibangunkan.
Keluaran AI harus dilakukan dengan penuh tanggungjawab, bermakna ia hanya perlu dikeluarkan selepas keselamatannya telah dinilai dengan teliti dan pengguna telah menilai pengehadan atau kemungkinan mod kegagalan
Sebaik-baiknya, tetapan paling selamat akan disepadukan sebagai satu-satunya pilihan ke dalam sistem. Apabila konfigurasi diperlukan, pilihan lalai pada umumnya harus selamat daripada ancaman biasa (iaitu, selamat secara lalai). Anda menggunakan kawalan untuk menghalang sistem anda daripada digunakan atau digunakan dengan cara yang berniat jahat.
Akhirnya, untuk melindungi operasi dan penyelenggaraan, pengendali dinasihatkan untuk memantau tingkah laku dan input sistem mereka, membolehkan kemas kini automatik dan mengekalkan ketelusan dan responsif, terutamanya sekiranya berlaku kegagalan (seperti kelemahan)
Garis panduan ini telah digubal dengan bantuan Agensi Keselamatan Siber dan Infrastruktur (CISA) A.S. dan agensi dan CERT yang serupa dari seluruh dunia, serta pakar industri.
“Garis panduan baharu yang diterajui UK adalah yang pertama dipersetujui secara global, dan ia akan membantu pembangun mana-mana sistem yang menggunakan AI membuat keputusan keselamatan siber termaklum pada setiap peringkat proses pembangunan – tidak kira Sama ada sistem ini dicipta dari awal atau dibina mengenai alat dan perkhidmatan yang disediakan oleh orang lain,” kata Pusat Keselamatan Siber Kebangsaan UK.
"[Garis Panduan] ditujukan terutamanya untuk pembekal sistem AI, sama ada berdasarkan model yang dihoskan oleh organisasi atau menggunakan antara muka pengaturcaraan aplikasi luaran. Walau bagaimanapun, kami menggesa semua pihak berkepentingan (termasuk saintis data, pembangun, pengurus, pembuat keputusan Pelabur dan pemilik risiko) harus membaca garis panduan ini untuk membantu mereka membuat keputusan termaklum tentang reka bentuk, penggunaan dan pengendalian sistem AI pembelajaran mesin mereka
Pengeluaran garis panduan ini mengikut perintah eksekutif daripada Presiden Joe Biden , untuk memulakan tindakan yang bertujuan untuk melindungi Rakyat Amerika daripada potensi risiko penipuan, ancaman privasi, diskriminasi dan penyalahgunaan lain
Atas ialah kandungan terperinci 18 negara bersama-sama mengeluarkan garis panduan keselamatan AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!