Rumah >Peranti teknologi >AI >Adakah pembelajaran mesin untuk keselamatan satu pembohongan yang indah?

Adakah pembelajaran mesin untuk keselamatan satu pembohongan yang indah?

WBOY
WBOYke hadapan
2023-04-15 20:13:011245semak imbas

Penterjemah |. Bugatti

Pengulas |. Sun Shujuan

Pembelajaran mesin (ML) bukan teknologi ajaib. Secara umumnya, ML sesuai untuk menyelesaikan masalah sempit dengan set data yang besar, dan corak minat sangat boleh berulang atau boleh diramal. Kebanyakan masalah keselamatan tidak memerlukan atau mendapat manfaat daripada ML. Ramai pakar, termasuk mereka di Google, mengesyorkan bahawa apabila menyelesaikan masalah yang rumit, anda hanya perlu mencuba ML selepas kehabisan semua kaedah lain.

ML menggabungkan pelbagai teknik statistik: ML membolehkan kami melatih komputer untuk menganggarkan jawapan kepada masalah, walaupun kami tidak diprogramkan dengan jawapan yang betul sebelum ini. Jika sistem ML yang direka bentuk dengan baik digunakan untuk menangani jenis masalah yang betul, ia boleh mendedahkan cerapan yang mungkin tidak tersedia.

Setiap persekitaran IT organisasi mempunyai tujuan, seni bina, keutamaan dan toleransi risiko yang berbeza. Adalah mustahil untuk mencipta algoritma, ML atau produk lain yang menyokong kes penggunaan keselamatan secara meluas dalam semua senario. Inilah sebabnya mengapa kebanyakan aplikasi ML yang berjaya dalam keselamatan menggabungkan pelbagai pendekatan untuk menyelesaikan masalah yang sangat khusus. Contoh biasa termasuk penapis spam, DDoS atau pengurangan bot dan pengesanan perisian hasad.

1. Sampah masuk, sampah keluar

Cabaran terbesar ML ialah mempunyai data yang relevan dan tersedia untuk menyelesaikan masalah sebenar. Untuk ML yang diselia, anda memerlukan set data yang besar dan dilabel dengan betul. Sebagai contoh, untuk membina model yang mengenali foto kucing, anda perlu melatih model itu dengan banyak foto kucing berlabel "kucing" dan banyak foto bukan kucing berlabel "bukan kucing." Jika anda tidak mempunyai foto yang mencukupi atau ia tidak dilabelkan dengan tepat, model itu tidak akan berfungsi dengan baik.

Dalam keselamatan, kes penggunaan ML diselia yang terkenal ialah pengesanan perisian hasad tanpa tandatangan. Banyak vendor platform perlindungan titik akhir (EPP) menggunakan ML untuk melabelkan sejumlah besar sampel berniat jahat dan jinak untuk melatih model tentang "rupa perisian hasad." Model ini boleh mengenal pasti perisian hasad mutan mengelak dengan betul dan dalih lain (fail yang telah diusik supaya mereka boleh mengelak kaedah pengesanan tandatangan, tetapi masih berniat jahat). Daripada memadankan ciri, ML menggunakan set ciri lain untuk meramalkan kandungan berniat jahat, selalunya menangkap perisian hasad yang kaedah berasaskan ciri terlepas.

Memandangkan model ML adalah kebarangkalian, tukar ganti diperlukan. ML boleh menangkap perisian hasad yang kaedah tandatangan terlepas, tetapi ia juga boleh terlepas perisian hasad yang terlepas kaedah tandatangan. Itulah sebabnya alatan EPP moden menggunakan pendekatan hibrid, menggabungkan ML dan teknik berasaskan ciri untuk mencapai liputan perlindungan maksimum.

2. Masalah positif palsu

Walaupun model direka dengan teliti, ML akan membawa beberapa cabaran tambahan apabila mentafsir output, termasuk:

  • Hasilnya ialah satu kebarangkalian. Kemungkinan keluaran model ML. Jika model anda direka bentuk untuk mengenal pasti kucing, anda akan mendapat sesuatu seperti "Terdapat 80% kemungkinan benda ini ialah kucing." Ketidakpastian ini wujud dalam sistem ML dan boleh menyebabkan keputusan sukar untuk ditafsirkan. Adakah 80% kebarangkalian kucing cukup tepat?
  • Model tidak boleh dilaraskan, sekurang-kurangnya tidak oleh pengguna akhir. Untuk mengendalikan keputusan kebarangkalian, alat boleh memprosesnya menjadi hasil binari menggunakan ambang yang ditetapkan oleh vendor. Sebagai contoh, model pengecaman kucing mungkin melaporkan bahawa mana-mana "kucing" mempunyai >90% kebarangkalian untuk menjadi kucing. Toleransi organisasi anda dalam bidang ini mungkin lebih tinggi atau lebih rendah daripada toleransi yang ditetapkan oleh pembekal.
  • False Negatives (FN), kegagalan untuk mengesan kandungan yang benar-benar berniat jahat, adalah kelemahan utama model ML, terutamanya model yang kurang ditala. Kami tidak suka positif palsu (FP) kerana ia membuang masa. Tetapi terdapat pertukaran yang wujud antara kadar PF dan kadar FN. Model ML ditala untuk mengoptimumkan pertukaran ini, mengutamakan keseimbangan "terbaik" kadar FP-kadar FN. Walau bagaimanapun, baki "betul" akan berbeza dari organisasi ke organisasi, bergantung pada ancaman individu dan penilaian risiko mereka. Apabila menggunakan produk berasaskan ML, anda mesti mempercayai vendor untuk memilih ambang yang sesuai untuk anda.
  • Terdapat konteks yang tidak mencukupi untuk klasifikasi amaran. Sebahagian daripada keajaiban ML ialah mengekstrak "ciri" ramalan tetapi sewenang-wenangnya daripada set data. Bayangkan bahawa mengenal pasti kucing kebetulan sangat berkorelasi dengan cuaca. Tiada siapa yang akan membuat alasan seperti ini. Tetapi itulah intipati ML - mencari corak yang tidak akan kami temui, dan melakukannya secara berskala. Walaupun punca yang diramalkan boleh didedahkan kepada pengguna, ia selalunya tidak membantu dalam triase amaran atau situasi tindak balas insiden. Ini disebabkan oleh pengoptimuman keupayaan ramalan oleh "ciri" yang akhirnya menentukan keputusan sistem ML.

3. Adakah nama lain untuk kaedah "statistik"

terdengar cantik?

Selain kebaikan dan keburukan ML, terdapat satu lagi perkara yang perlu diberi perhatian: tidak semua "ML" adalah ML yang benar. Kaedah statistik boleh memberi anda beberapa kesimpulan tentang data anda. ML membuat ramalan berdasarkan data yang anda ada pada data yang anda tidak miliki. Pemasar berminat untuk menikmati populariti "ML" dan "kecerdasan buatan", mendakwa bahawa ini adalah sejenis produk teknologi moden, inovatif dan maju. Walau bagaimanapun, orang ramai sering tidak memikirkan sama ada teknologi ini menggunakan ML, apatah lagi sama ada ML adalah pendekatan yang betul.

4.Bolehkah ML mengesan kandungan berniat jahat?

ML boleh mengesan apabila "kandungan berniat jahat" ditakrifkan dengan baik dan skopnya sempit. Ia juga boleh mengesan penyimpangan daripada tingkah laku yang dijangkakan dalam sistem yang sangat boleh diramal. Semakin stabil persekitaran, semakin besar kemungkinan ML mengenal pasti anomali dengan betul. Tetapi tidak setiap pengecualian adalah berniat jahat, dan pengendali tidak selalu mempunyai konteks yang mencukupi untuk bertindak balas.

Kuasa ML terletak pada menambah, bukannya menggantikan, kaedah, sistem dan pasukan sedia ada untuk mencapai liputan dan kecekapan yang optimum.

Pautan asal: https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security

Atas ialah kandungan terperinci Adakah pembelajaran mesin untuk keselamatan satu pembohongan yang indah?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam