Rumah > Artikel > Peranti teknologi > Lapan ramalan penganalisis untuk kedudukan keselamatan ChatGPT pada 2023
Pengeluaran ChatGPT-4 baru-baru ini oleh pembangun kecerdasan buatan OpenAI telah mengejutkan dunia sekali lagi, tetapi maksudnya dalam bidang keselamatan data masih belum ditentukan. Di satu pihak, menjana perisian hasad dan perisian tebusan adalah lebih mudah berbanding sebelum ini. Sebaliknya, ChatGPT juga boleh menyediakan satu siri kes penggunaan pertahanan baharu.
Pengeluaran ChatGPT-4 baru-baru ini oleh pembangun kecerdasan buatan OpenAI telah mengejutkan dunia sekali lagi, tetapi maksudnya dalam bidang keselamatan data masih belum ditentukan. Di satu pihak, menjana perisian hasad dan perisian tebusan adalah lebih mudah berbanding sebelum ini. Sebaliknya, ChatGPT juga boleh menyediakan satu siri kes penggunaan pertahanan baharu.
Media industri baru-baru ini menemu bual beberapa penganalisis keselamatan siber terkemuka dunia, yang membuat ramalan berikut untuk pembangunan ChatGPT dan kecerdasan buatan generatif pada 2023:
Berikut ialah beberapa ramalan daripada penganalisis keselamatan siber.
Steve Grobman, naib presiden kanan dan ketua pegawai teknologi McAfee, berkata, "ChatGPT merendahkan ambang untuk digunakan, menjadikannya lebih mudah untuk digunakan dengan tinggi. kakitangan mahir. Dan dengan wang yang banyak, beberapa teknik tersedia untuk sesiapa sahaja yang mempunyai akses kepada Internet Penyerang siber yang tidak mahir kini mempunyai cara untuk menjana kod hasad secara pukal
Sebagai contoh, mereka boleh meminta program untuk. tulis kod itu, menjana mesej teks yang dihantar kepada ratusan orang, sama seperti apa yang dilakukan oleh pasukan pemasaran bukan jenayah. Daripada mengarahkan penerima ke tapak web yang selamat, ia membawa mereka ke tapak web dengan ancaman berniat jahat tidak berniat jahat, ia boleh digunakan untuk menyampaikan kandungan berbahaya
Seperti mana-mana teknologi atau aplikasi baru muncul yang mempunyai kebaikan dan keburukan, ChatGPT akan digunakan oleh pelakon yang baik dan buruk Komuniti keselamatan mesti berwaspada tentang caranya sedang dieksploitasi. 2. Ia akan menjadi lebih mudah untuk mencipta e-mel pancingan data yang meyakinkan Justin Greis, rakan kongsi di McKinsey & Company, berkata, AI Generatif ialah alat, dan seperti semua alat, ia boleh digunakan untuk tujuan yang baik dan jahat. Terdapat banyak kes penggunaan yang disebut hari ini, kedua-duanya oleh pelakon ancaman dan oleh penyelidik yang ingin tahu E-mel pancingan data yang lebih meyakinkan sedang dibuat, kod dan skrip berniat jahat sedang dijana untuk melancarkan serangan siber yang berpotensi, atau malah hanya untuk bertanyakan perisikan yang lebih baik dan lebih pantas
.Penyelidik SANS, David Hoelzer dari Institut SANS berkata, “ChatGPT kini popular di seluruh dunia, tetapi kami hanya di peringkat awal dari segi kesannya terhadap landskap keselamatan siber kecerdasan buatan pada kedua-dua belah garis pemisah/ Permulaan era baharu pembelajaran mesin, bukan kerana apa yang ChatGPT boleh lakukan, tetapi kerana ia membawa kecerdasan buatan/pembelajaran mesin ke dalam perhatian
Dihidupkan Di satu pihak, ChatGPT berpotensi digunakan untuk tujuan sosial Pendemokrasian kejuruteraan, sebaliknya, memberikan pelakon ancaman yang tidak berpengalaman keupayaan baru untuk dengan cepat dan mudah menjana alasan atau penipuan dan menggunakan serangan pancingan data yang canggih pada skala apabila menyerang atau bertahan. Ini bukan kegagalan, tetapi kerana orang memintanya untuk melakukan perkara yang tidak dilatih untuk dilakukan
Apakah maksudnya untuk profesional keselamatan? . Sebagai profesional keselamatan, ramai di antara kita telah menguji ChatGPT untuk melihat sejauh mana ia melaksanakan fungsi asas. Bolehkah ia menulis senario ujian Pen? Bolehkah ia menulis alasan phishing?
Walau bagaimanapun, perbualan keselamatan yang lebih besar bukan mengenai ChatGPT. Ini mengenai sama ada kami mempunyai peranan keselamatan yang memahami cara membina, menggunakan dan mentafsir teknologi AI/ML pada masa ini. "
Penganalisis Gartner Avivah Litan berkata, "Dalam beberapa kes, apabila kakitangan keselamatan tidak dapat mengesahkan kandungan output mereka , Pada masa yang sama, ChatGPT akan menyebabkan lebih banyak masalah daripada menyelesaikannya. Sebagai contoh, ia pasti akan terlepas pengesanan beberapa kelemahan dan memberikan perusahaan rasa selamat yang palsu.
Begitu juga, ia boleh terlepas pengesanan serangan pancingan data yang dimaklumkan dan memberikan perisikan ancaman yang salah atau lapuk.
Oleh itu, kita pasti akan melihat pada tahun 2023 bahawa ChatGPT akan bertanggungjawab terhadap serangan siber yang terlepas dan kelemahan yang membawa kepada kebocoran data perusahaan yang menggunakannya. ”
Rob Hughes, ketua pegawai keselamatan maklumat di RSA, berkata, “Seperti kebanyakan teknologi baharu, saya tidak fikir ChatGPT akan membawa ancaman Baharu. Saya fikir perubahan terbesar yang akan dilakukan kepada landskap keselamatan adalah untuk menguatkan, mempercepat dan meningkatkan ancaman sedia ada, terutamanya pancingan data.
Pada peringkat asas, ChatGPT boleh menyediakan penyerang siber dengan e-mel pancingan data yang betul secara sintaksis, sesuatu yang jarang kita lihat hari ini.
Walaupun ChatGPT kekal sebagai perkhidmatan luar talian, hanya menunggu masa sebelum aktor ancaman siber mula menggabungkan akses Internet, automasi dan kecerdasan buatan untuk mencipta serangan berterusan dan lanjutan.
Dengan chatbots, manusia tidak perlu menulis umpan untuk menghantar spam. Sebaliknya, mereka boleh menulis skrip yang mengatakan "Gunakan data internet untuk membiasakan diri dengan si-sian dan terus menghantar mesej kepada mereka sehingga mereka mengklik pada pautan
Pancingan data kekal sebagai punca utama kelemahan keselamatan siber. sebab-sebabnya. Mempunyai bot bahasa semula jadi menggunakan alat pancingan data lembing yang diedarkan semasa bekerja pada skala besar pada ratusan mesin pengguna akan menyukarkan pasukan keselamatan untuk melakukan tugas mereka. ”
Matt Miller, ketua perkhidmatan keselamatan siber di KPMG, berkata apabila lebih banyak perusahaan meneroka dan menerima pakai ChatGPT, kehendak keselamatan menjadi keutamaan. . Berikut ialah beberapa langkah untuk membantu perusahaan maju pada tahun 2023:
(1) Tetapkan jangkaan yang boleh diterima tentang cara ChatGPT dan penyelesaian serupa harus digunakan dalam persekitaran perusahaan mentakrifkan senarai semua penyelesaian yang diluluskan kes, dan data yang boleh dipercayai oleh pekerja; dan memerlukan pemeriksaan untuk mengesahkan ketepatan respons
(2) Wujudkan proses dalaman untuk menyemak kesedaran tentang penggunaan dan evolusi peraturan terhadap penyelesaian automatik, terutamanya pengurusan harta intelek, data peribadi dan kemasukan dan kepelbagaian yang sesuai
(3) Laksanakan kawalan rangkaian teknikal, memberi perhatian khusus untuk menguji daya tahan operasi kod anda dan mengimbas untuk muatan berniat jahat termasuk tetapi tidak terhad kepada: pengesahan berbilang faktor dan hanya membenarkan akses kepada pengguna yang dibenarkan menggunakan skim pencegahan kehilangan data untuk memastikan bahawa semua kod yang dihasilkan oleh alat itu menjalani proses semakan standard dan tidak boleh disalin secara langsung ke persekitaran pengeluaran dan mengkonfigurasi penapisan rangkaian untuk memberi amaran kepada pekerja apabila mereka mengakses penyelesaian yang tidak diluluskan
Naib Presiden Kanan, Perkhidmatan Penganalisis, ESG Corporation dan penganalisis kanan Doug Cahill berkata, "Seperti kebanyakan yang baru teknologi, ChatGPT akan menjadi sumber untuk penyerang dan pembela siber, dengan kes penggunaan musuh termasuk peninjauan dan pembela yang mencari amalan terbaik dan pasaran risikan ancaman. Seperti kes penggunaan ChatGPT yang lain, ketepatan respons ujian pengguna akan berbeza-beza kerana sistem AI dilatih pada korpus data yang sudah besar dan berkembang.
Walaupun kes penggunaan ChatGPT digunakan secara meluas, perkongsian perisikan ancaman di kalangan ahli pasukan untuk memburu ancaman dan mengemas kini peraturan serta model pertahanan adalah menjanjikan. Walau bagaimanapun, ChatGPT ialah satu lagi contoh penambahan AI (bukan menggantikan) elemen manusia yang diperlukan dalam sebarang jenis senario aplikasi penyiasatan ancaman. "
Candid Wuest, naib presiden penyelidikan global di Acronis, berkata, "Walaupun ChatGPT ialah model penjanaan bahasa yang berkuasa, teknologi ini tidak Alat yang berdiri sendiri tidak boleh berjalan secara bebas. Ia bergantung pada input pengguna dan dihadkan oleh data ia dilatih.
Sebagai contoh, teks pancingan data yang dijana oleh model ini masih perlu dihantar daripada akaun e-mel dan diarahkan ke tapak web. Ini adalah penunjuk tradisional yang boleh dianalisis untuk membantu mengesannya.
Walaupun ChatGPT mempunyai keupayaan untuk menulis eksploitasi dan muatan, ujian telah menunjukkan bahawa ciri ini tidak sebaik yang dicadangkan pada mulanya. Platform ini juga boleh digunakan untuk menulis perisian hasad, dan sementara kod ini sudah boleh didapati dalam talian dan di pelbagai forum, ChatGPT menjadikannya lebih mudah diakses oleh orang ramai.
Walau bagaimanapun, perubahannya masih terhad, menjadikan perisian hasad ini mudah dikesan melalui pengesanan berasaskan tingkah laku dan kaedah lain. ChatGPT tidak direka bentuk khusus untuk menyasarkan atau mengeksploitasi kelemahan, tetapi ia boleh meningkatkan kekerapan mesej automatik atau simulasi. Ia merendahkan halangan kemasukan penjenayah siber, tetapi ia tidak memperkenalkan kaedah serangan baharu sepenuhnya kepada perniagaan yang sudah mantap. ”
Atas ialah kandungan terperinci Lapan ramalan penganalisis untuk kedudukan keselamatan ChatGPT pada 2023. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!