Rumah >Peranti teknologi >AI >Mengapakah GPT-4P terdedah kepada serangan imej suntikan petunjuk berbilang modal?
Versi GPT-4V baharu OpenAI menyokong muat naik imej, yang membawa laluan serangan baharu, menjadikan model bahasa besar (LLM) terdedah kepada serangan imej suntikan berbilang modal. Penyerang boleh membenamkan arahan, skrip berniat jahat dan kod dalam imej, yang kemudian dipatuhi oleh model itu.
Serangan imej suntikan segera berbilang mod boleh membocorkan data, mengubah hala pertanyaan, menjana mesej ralat dan melaksanakan skrip yang lebih kompleks untuk mentakrifkan semula cara LLM mentafsir data. Mereka boleh menggunakan semula LLM untuk mengabaikan pagar keselamatan yang didirikan sebelum ini dan melaksanakan arahan yang boleh menjejaskan organisasi, menimbulkan ancaman daripada penipuan kepada sabotaj operasi.
Semua perniagaan yang menggunakan LLM sebagai sebahagian daripada aliran kerja mereka menghadapi kesukaran, tetapi mereka yang menggunakan LLM sebagai teras perniagaan mereka untuk analisis imej dan klasifikasi menghadapi risiko yang paling besar. Penyerang yang menggunakan pelbagai teknik dengan cepat boleh mengubah cara imej ditafsir dan diklasifikasikan, yang membawa kepada hasil yang lebih mengelirukan
Arahan dan skrip pelaksanaan berniat jahat lebih berkemungkinan diabaikan apabila gesaan LLM ditindih. Penyerang boleh melakukan penipuan dan sabotaj operasi dengan membenamkan arahan dalam satu siri imej yang dimuat naik ke LLM, dan juga boleh memudahkan serangan kejuruteraan sosial
Disebabkan ketidakupayaan LLM untuk melindungi daripadanya semasa pemprosesannya Tiada langkah pembersihan data, jadi setiap imej tidak boleh dipercayai. Sama seperti sangat berbahaya untuk membiarkan identiti berkeliaran dengan bebas di rangkaian tanpa kawalan akses kepada setiap set data, aplikasi atau sumber, terdapat juga bahaya untuk imej yang dimuat naik ke LLM
Situasi di mana perusahaan mempunyai LLM persendirian Dalam situasi ini, akses keistimewaan paling rendah mesti diguna pakai sebagai strategi keselamatan rangkaian teras
Simon Willison baru-baru ini menjelaskan secara terperinci dalam catatan blog mengapa GPT-4V telah menjadi saluran utama untuk serangan suntikan segera, dan menunjukkan bahawa LLM pada asasnya mudah untuk ditipu. Pautan catatan blog: https://simonwillison.net/2023/Oct/14/multi-modal-prompt-injection/
Willison menunjukkan cara untuk merampas ejen kecerdasan buatan autonomi, seperti Auto-GPT, melalui suntikan segera. Beliau menerangkan secara terperinci contoh suntikan kiu visual mudah yang bermula dengan membenamkan arahan dalam satu imej dan secara beransur-ansur berkembang menjadi serangan penembusan suntikan kiu visual
Paul Ekwere, pengurus kanan analisis data dan kecerdasan buatan di BDO UK berkata: "Suntikan serangan Ia menimbulkan ancaman serius terhadap keselamatan dan kebolehpercayaan LLM, terutamanya untuk model berasaskan penglihatan yang memproses imej atau video Model ini digunakan secara meluas dalam bidang seperti pengecaman muka, pemanduan autonomi, diagnosis perubatan dan pemantauan OpenAI pada masa ini tiada penyelesaian untuk serangan imej suntikan segera berbilang modal, meninggalkan pengguna dan perniagaan sendiri. Catatan blog di tapak pembangun Nvidia (https://developer.nvidia.com/blog/mitigating-stored-prompt-injection-attacks-against-llm-applications/) menyediakan beberapa cadangan, termasuk untuk semua penyimpanan data dan Sistem menguatkuasakan akses keistimewaan paling rendah
Cara serangan imej suntikan segera berbilang modal berfungsiModel tidak mempunyai cara untuk membersihkan input visual sebelum pengekodan. Penyerang boleh membenamkan sebarang bilangan arahan dan GPT-4 akan menganggapnya sebagai arahan yang sah. Penyerang yang secara automatik melakukan serangan suntikan petunjuk berbilang modal pada LLM persendirian tidak akan disedari.
Mengandungi Serangan Imej yang DisuntikKertas penyelidikan terkini (https://arxiv.org/pdf/2306.05499.pdf) menyediakan garis panduan tentang cara untuk melindungi LLM dengan lebih baik daripada serangan suntikan petunjuk. Untuk menentukan sejauh mana risiko dan penyelesaian yang berpotensi, pasukan penyelidik menjalankan satu siri eksperimen yang direka untuk menilai keberkesanan serangan suntikan terhadap aplikasi yang menggabungkan LLM. Pasukan penyelidik mendapati bahawa 31 aplikasi yang menyepadukan LLM terdedah kepada serangan suntikan
Kertas penyelidikan membuat pengesyoran berikut untuk membendung serangan imej suntikan:Untuk aplikasi persendirian Untuk perusahaan yang mengikuti piawaian dalam LLM, pengurusan capaian identiti (IAM) dan capaian keistimewaan terkecil ialah konfigurasi asas. Penyedia LLM perlu mempertimbangkan untuk melakukan pembersihan yang lebih teliti sebelum menghantar data imej untuk diproses
Apa yang perlu ditulis semula ialah: 2. Memperbaik seni bina platform dan asingkan input pengguna daripada logik sistem
Tujuannya adalah untuk menghapuskan risiko input pengguna yang menjejaskan kod dan data LLM secara langsung. Sebarang isyarat imej perlu dikendalikan supaya tidak menjejaskan logik dalaman atau aliran kerja.
Gunakan aliran kerja pemprosesan berbilang peringkat untuk mengenal pasti serangan berniat jahat
Kami boleh membina proses berbilang peringkat untuk menangkap serangan berasaskan imej lebih awal untuk menguruskan ancaman ini dengan lebih baik #🎜🎜 #
4 Sesuaikan petua pertahanan untuk mengelakkan jailbreaking Jailbreaking ialah teknik kejuruteraan tip biasa yang digunakan untuk mengelirukan LLM untuk melakukan tindakan yang menyalahi undang-undang, melampirkan petua pada perkara yang kelihatan berniat jahat Membantu melindungi LLM dalam imej. input. Walau bagaimanapun, penyelidik memberi amaran bahawa serangan lanjutan masih boleh memintas pendekatan ini.Atas ialah kandungan terperinci Mengapakah GPT-4P terdedah kepada serangan imej suntikan petunjuk berbilang modal?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!