Rumah >Peranti teknologi >AI >Apakah kesan ChatGPT terhadap keselamatan rangkaian pusat data?
Baru-baru ini, OpenAI mengeluarkan chatbot ChatGPT, yang telah menarik perhatian meluas kerana keupayaannya yang hebat, malah ramai orang percaya bahawa dunia telah mula berubah.
Jika pelajar boleh meminta ChatGPT menulis kertas kerja mereka untuk mereka, pelajar kolej pasti akan berebut-rebut untuk memikirkan cara menggunakan alat AI ini untuk melengkapkan pengajian mereka. Kerana, kami telah melihat ChatGPT lulus peperiksaan sekolah undang-undang, peperiksaan sekolah perniagaan, dan juga peperiksaan pelesenan perubatan. Pekerja di seluruh dunia mula menggunakannya untuk menulis e-mel, laporan dan juga menulis kod komputer.
Walau bagaimanapun, pada masa ini ChatGPT tidak sempurna, dan pangkalan datanya tidak dikemas kini, tetapi ia lebih berkuasa daripada mana-mana sistem kecerdasan buatan yang pernah orang biasa hubungi sebelum ini, dan pengalaman pengguna juga lebih mesra daripada kecerdasan buatan sistem peringkat perusahaan.
Nampaknya apabila model bahasa yang besar seperti ChatGPT menjadi cukup besar dan mempunyai data latihan yang mencukupi, parameter yang mencukupi dan lapisan yang mencukupi dalam rangkaian sarafnya, perkara aneh mula berlaku. Ia membangunkan "ciri" yang tidak jelas atau mungkin dalam model yang lebih kecil. Dalam erti kata lain, ia mula bertindak seolah-olah ia mempunyai akal dan pemahaman tentang dunia—atau sekurang-kurangnya sesuatu yang menghampiri perkara tersebut.
Melalui berita terkini, kita dapat melihat syarikat teknologi utama bergegas untuk bertindak balas. Microsoft melabur AS$10 bilion dalam OpenAI dan menambah fungsi ChatGPT pada Bing, menjadikan enjin carian yang tidak aktif sejak sekian lama menjadi topik semula.
Google juga telah mengumumkan rancangannya sendiri untuk AI chatbots dan melabur dalam OpenAI pesaing Anthropic, yang diasaskan oleh bekas pekerja OpenAI dan mempunyai chatbot sendiri Claude.
Amazon mengumumkan rancangan untuk membina pesaing ChatGPTnya sendiri dan mengumumkan perkongsian dengan permulaan AI yang lain, Hugging Face. Meta Facebook juga akan mengikuti pelan kerja AInya sendiri dengan pantas.
Sementara itu, nasib baik, teknologi baharu ini juga tersedia untuk pakar keselamatan. Mereka boleh menggunakannya untuk penyelidikan, membantu menulis e-mel dan laporan, membantu menulis kod dan banyak lagi cara yang akan kami gali.
Tetapi yang mengganggu, orang jahat juga menggunakannya untuk semua perkara ini, serta pancingan data dan kejuruteraan sosial. Mereka juga menggunakan ChatGPT untuk membantu mereka mencipta deepfakes pada skala dan kesetiaan yang tidak dapat dibayangkan hanya beberapa bulan yang lalu. ChatGPT sendiri juga boleh menjadi ancaman keselamatan.
Seterusnya, mari kita bincangkan topik keselamatan yang mungkin dibawa oleh alatan AI ini ke pusat data, bermula dengan cara yang mungkin digunakan oleh pelakon berniat jahat, dan dalam beberapa kes, mereka sudah menggunakan ChatGPT. Kami kemudian meneroka faedah dan bahaya menggunakan alat kecerdasan buatan seperti ChatGPT untuk profesional keselamatan siber.
Tidak dinafikan bahawa pelakon jahat sudah pun menggunakan ChatGPT. Jadi bagaimana ChatGPT boleh digunakan untuk membantu merangsang serangan siber. Dalam Tinjauan Pemimpin IT BlackBerry yang dikeluarkan pada bulan Februari, 53% responden berkata ia akan membantu penggodam mencipta e-mel pancingan data yang lebih dipercayai, dan 49% menyatakan keupayaannya untuk membantu penggodam meningkatkan kemahiran pengekodan mereka.
Satu lagi dapatan daripada tinjauan: 49% daripada pembuat keputusan IT dan keselamatan siber berkata ChatGPT akan digunakan untuk menyebarkan maklumat salah dan salah maklumat, dan 48% percaya ia boleh digunakan untuk mencipta perisian hasad yang baharu sepenuhnya. 46% lagi responden berkata ChatGPT boleh membantu meningkatkan serangan sedia ada.
Dion Hinchcliffe, naib presiden dan penganalisis utama di Constellation Research, berkata: "Kami melihat pengekod dan juga bukan pengekod menggunakan ChatGPT untuk menjana kelemahan yang boleh dieksploitasi dengan berkesan
Lagipun , model kecerdasan buatan Telah membaca semua yang diterbitkan secara terbuka. Itu termasuk "setiap laporan kelemahan penyelidikan," kata Hinchcliffe, "dan setiap perbincangan forum daripada setiap pakar keselamatan. Ia seperti otak super yang boleh memecahkan sistem dalam pelbagai cara
Ia adalah prospek yang menakutkan.
Dan, sudah tentu, penyerang juga boleh menggunakannya untuk menulis, tambahnya. "Kami akan dibanjiri dengan maklumat salah dan kandungan pancingan data dari seluruh dunia." dia telah melihat beberapa eksperimen virus yang luar biasa dengan alat AI sejak beberapa minggu lalu.
"Kami telah melihat alatan dengan keupayaan antara muka bahasa semula jadi sebelum ini, tetapi belum ada antara muka yang terbuka luas dan menghadap pelanggan untuk ChatGPT," tambahnya. "Saya berharap dapat melihat penyelesaian komersil yang bersambung dengan ChatGPT tidak lama lagi, tetapi saya fikir titik manis sekarang ialah penyepaduan sistem berbilang alat keselamatan rangkaian dengan ChatGPT dan automasi keselamatan DIY dalam awan awam." berkata, ChatGP dan rakan sebayanya memegang janji besar dalam membantu pasukan keselamatan siber pusat data beroperasi dengan lebih cekap, menskalakan sumber yang terhad dan mengenal pasti ancaman dan serangan baharu.
"Dari masa ke masa, hampir setiap ciri keselamatan siber akan dipertingkatkan dengan pembelajaran mesin," kata Reavis. "Selain itu, kami tahu bahawa pelakon yang berniat jahat menggunakan alat seperti ChatGPT dan menganggap anda perlu memanfaatkan A untuk memerangi AI yang berniat jahat." vendor keselamatan Mimecast sudah menggunakan model bahasa yang besar untuk menjana e-mel sintetik untuk melatih alat AI pengesanan pancingan datanya sendiri.
"Kami biasanya menggunakan e-mel sebenar untuk melatih model kami," kata Jose Lopez, ketua saintis data dan jurutera pembelajaran mesin di Mimecast.
Bagaimanapun, dia enggan mendedahkan model bahasa berskala besar tertentu yang digunakan oleh Mimecast. Dia berkata maklumat itu adalah "senjata rahsia" syarikat itu.
Walau bagaimanapun, pada masa ini Mimecast tidak berhasrat untuk mengesan sama ada e-mel masuk dijana oleh ChatGPT. Itu kerana ia bukan hanya pelakon jahat yang menggunakan ChatGPT. AI ialah alat produktiviti yang sangat berguna yang digunakan oleh ramai pekerja untuk memperbaiki komunikasi mereka sendiri yang sah.
Sebagai contoh, Lopez, yang merupakan bahasa Sepanyol sendiri, kini menggunakan ChatGPT dan bukannya penyemak tatabahasa untuk memperbaiki penulisannya.
Lopez juga menggunakan ChatGPT untuk membantu menulis kod - sesuatu yang mungkin dilakukan oleh ramai profesional keselamatan.
"Dalam pekerjaan harian saya, saya menggunakan ChatGPT setiap hari kerana ia sangat berguna untuk pengaturcaraan," kata Lopez. "Kadang-kadang ia salah, tetapi ia cukup kerap untuk membuka minda anda kepada kaedah lain. Saya tidak fikir ChatGPT akan mengubah orang yang tidak cekap menjadi penggodam super."
OpenAI telah mula berusaha untuk meningkatkan ketepatan sistem. Microsoft memberikannya akses kepada maklumat terkini di web melalui Bing Chat. Lopez menambah bahawa versi seterusnya akan menjadi satu lonjakan besar dalam kualiti. Selain itu, versi sumber terbuka ChatGP akan datang tidak lama lagi. "Dalam masa terdekat kami akan dapat memperhalusi model untuk perkara tertentu," katanya. “Sekarang anda bukan sahaja mempunyai tukul—anda mempunyai set lengkap alatan.”Sebagai contoh, perniagaan boleh memperhalusi model untuk memantau aktiviti yang berkaitan pada rangkaian sosial dan mencari kemungkinan ancaman. Hanya masa yang akan menentukan sama ada hasilnya lebih baik daripada kaedah semasa. Ia juga menjadi lebih mudah dan lebih murah untuk menambahkan ChatGPT pada perisian sedia ada pada 1 Mac, OpenAI mengeluarkan API untuk pembangun mengakses ChatGPT dan model ucapan-ke-teks Whisper. Secara umumnya, perusahaan menggunakan alat keselamatan dipacu AI dengan pantas untuk memerangi ancaman yang berkembang pesat pada skala yang lebih besar berbanding sebelum ini. Menurut tinjauan Mimecast terkini, 92% perusahaan sudah menggunakan atau merancang untuk menggunakan kecerdasan buatan dan pembelajaran mesin untuk mengukuhkan keselamatan siber mereka. Khususnya, 50% percaya bahawa menggunakannya boleh mengesan ancaman dengan lebih tepat, 49% percaya bahawa ia boleh meningkatkan keupayaan untuk menyekat ancaman, dan 48% percaya bahawa ia boleh memulihkan serangan dengan lebih cepat apabila ia berlaku . 81% daripada responden berkata sistem AI yang menyediakan makluman kontekstual masa nyata kepada pengguna e-mel dan alatan kerjasama akan menjadi rahmat yang besar. "12% malah mengatakan bahawa faedah sistem sedemikian akan merevolusikan cara keselamatan siber dilaksanakan," kata laporan itu Ketaki Borade, penganalisis kanan di amalan keselamatan siber Omdia, berkata seperti itu. Alat AI seperti ChatGPT juga boleh membantu menutup jurang kekurangan kemahiran keselamatan siber. "Jika pembayang diberikan dengan betul, menggunakan alat sedemikian boleh mempercepatkan tugasan yang lebih mudah, dan sumber yang terhad boleh ditumpukan pada masalah yang lebih sensitif masa dan keutamaan tinggi." "Model bahasa yang besar ini ialah a anjakan paradigma asas," kata Yale Fox, ahli IEEE dan pengasas serta Ketua Pegawai Eksekutif Kumpulan Sains Gunaan. "Satu-satunya cara untuk menentang serangan berniat jahat yang didorong oleh AI ialah menggunakan AI dalam pertahanan. Pengurus keselamatan pusat data perlu meningkatkan kemahiran sumber keselamatan siber sedia ada dan mencari kakitangan baharu yang pakar dalam kecerdasan buatan Dalam Bahaya Pusat Data." Menggunakan ChatGPT Seperti yang dinyatakan sebelum ini, alatan AI seperti ChatGPT dan Copilot boleh membantu profesional keselamatan menulis kod, dengan itu menjadikannya lebih cekap. Walau bagaimanapun, menurut penyelidikan terbaru dari Universiti Cornell, pengaturcara yang menggunakan pembantu AI lebih berkemungkinan mencipta kod yang tidak selamat sambil melihatnya sebagai lebih selamat berbanding mereka yang tidak. Ini hanyalah puncak gunung ais apabila ia berkaitan dengan potensi kelemahan menggunakan ChatGPT tanpa mengambil kira risikonya.Terdapat beberapa contoh terkenal ChatGPT atau Bing Chat yang sangat yakin dalam memberikan maklumat yang salah, membuat statistik dan petikan, atau memberikan penjelasan yang salah sepenuhnya tentang konsep tertentu.
Orang yang mempercayainya secara membuta tuli mungkin akan mengalami situasi yang sangat teruk.
"Jika anda menggunakan skrip yang dibangunkan oleh ChatGPT untuk melaksanakan penyelenggaraan pada 10,000 mesin maya dan skrip mempunyai ralat, anda akan menghadapi masalah besar," kata Reavis dari Cloud Security Alliance.
Satu lagi potensi risiko untuk profesional keselamatan pusat data menggunakan ChatGPT ialah pelanggaran data.
Sebab OpenAI menjadikan ChatGPT percuma adalah kerana ia boleh belajar daripada interaksi dengan pengguna. Jadi, sebagai contoh, jika anda meminta ChatGPT menganalisis postur keselamatan pusat data anda dan mengenal pasti titik lemah, anda kini telah mengajar ChatGPT semua kelemahan keselamatan anda.
Sekarang, pertimbangkan tinjauan Februari daripada rangkaian sosial berorientasikan kerja Fishbowl, yang mendapati bahawa 43% daripada profesional menggunakan ChatGPT atau alatan serupa di tempat kerja, meningkat daripada 27% sebulan yang lalu . Jika mereka berbuat demikian, 70% tidak akan memberitahu bos mereka. Oleh itu, potensi risiko keselamatan adalah tinggi.
Inilah sebabnya JPMorgan Chase, Amazon, Verizon, Accenture dan banyak syarikat lain dilaporkan telah melarang pekerja mereka daripada menggunakan alat tersebut.
API ChatGPT baharu yang dikeluarkan oleh OpenAI bulan ini akan membolehkan perusahaan merahsiakan data mereka dan memilih untuk tidak menggunakannya untuk latihan, tetapi tiada jaminan bahawa sebarang kebocoran tidak sengaja tidak akan berlaku.
Pada masa hadapan, sebaik sahaja versi sumber terbuka ChatGPT tersedia, pusat data akan dapat menjalankannya secara setempat, di belakang tembok api mereka, mengelakkan kemungkinan pendedahan kepada orang luar.
Akhirnya, Carm Taglienti, seorang jurutera terkenal di Insight, berkata terdapat potensi risiko etika dalam menggunakan teknologi gaya ChatGPT untuk menjamin pusat data dalaman.
"Model ini sangat baik untuk memahami cara kita berkomunikasi sebagai manusia," katanya. Oleh itu, alat gaya ChatGPT dengan akses kepada komunikasi pekerja mungkin dapat mendedahkan niat dan subteks yang menunjukkan potensi ancaman.
"Kami sedang berusaha keras untuk mencegah penggodaman rangkaian dan penggodaman persekitaran dalaman. Banyak pelanggaran berlaku kerana orang ramai keluar dari pintu dengan membawa barangan," katanya.
Beliau menambah bahawa sesuatu seperti ChatGPT "boleh menjadi sangat berharga bagi sesebuah organisasi." "Tetapi sekarang kami memasuki ruang beretika ini di mana orang akan membuat profil saya dan memantau semua yang saya lakukan."
Atas ialah kandungan terperinci Apakah kesan ChatGPT terhadap keselamatan rangkaian pusat data?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!