Rumah > Artikel > Peranti teknologi > Jika anda bermain ChatGPT dengan baik, anda perlu makan di penjara lambat laun?
Platform dalam talian paling popular pada awal tahun 2023 sudah pasti kegemaran baharu dalam bidang kecerdasan buatan - model robot sembang pintar ChatGPT, yang telah menarik ramai netizen untuk berkomunikasi dan berinteraksi dengannya dalam cara "seperti manusia", kerana ia bukan sahaja dapat memahami sepenuhnya Soalan yang ditimbulkan oleh manusia akan diberikan jawapan yang tidak lagi "terrencat buatan", dan mereka sebenarnya akan terlibat dalam banyak amalan produktiviti, seperti pengaturcaraan, grafik, penulisan skrip, dan juga penulisan salinan puisi seperti syair.
Untuk sementara waktu, orang ramai mula membincangkan: Adakah kecerdasan buatan yang diwakili oleh ChatGPT menggantikan sejumlah besar pekerjaan manusia dalam masa terdekat? Sebenarnya, sebelum membincangkan isu ini, apa yang perlu kita lebih berhati-hati ialah ia lahir dalam dunia dalam talian dan mempunyai risiko keselamatan yang besar dan juga risiko undang-undang. Sama seperti jenaka yang beredar dalam bulatan: Jika anda bermain dengan baik dalam ChatGPT, anda pasti akan terpaksa makan di penjara lambat laun?
ChatGPT (Chat Generative Pre-Trained Transformer , nama penuh Chat Generative Pre-training Converter) ialah model robot sembang kecerdasan buatan yang dilancarkan oleh OpenAI, syarikat kecerdasan buatan terkemuka di dunia, dan dilahirkan pada 30 November 2022. Dengan menggunakan maklum balas manusia untuk mengukuhkan teknologi model, pilihan manusia digunakan sebagai isyarat ganjaran untuk memperhalusi model, supaya terus belajar bahasa manusia dan benar-benar berbual dan berkomunikasi seperti manusia. Tepat kerana ia benar-benar kelihatan seperti orang sebenar, ChatGPT telah menjadi popular dengan cepat di seluruh dunia sejak penubuhannya. Sehingga akhir Januari 2023, bilangan pengguna aktif bulanan ChatGPT melebihi 100 juta, menjadikannya salah satu aplikasi paling hangat dengan pertumbuhan pengguna terpantas di dunia.
Sama seperti ChatGPT menggunakan lebih banyak keupayaan serba bolehnya, orang ramai menjadi semakin cemas: Adakah pekerjaan mereka dalam bahaya? Sama seperti mesin membebaskan tenaga manusia dan menggantikan sejumlah besar buruh manual pada masa lalu, perkembangan sejarah berkemungkinan menggalakkan kecerdasan buatan untuk terus mengambil bahagian dalam kerja manusia, menggunakan kurang tenaga manusia untuk melengkapkan kandungan kerja yang sama. Walau bagaimanapun, dengan tahap teknologi semasa, pada masa ini tiada jadual yang boleh dijangka untuk mencapai tahap ini Kecerdasan buatan yang diwakili oleh ChatGPT masih dalam peringkat penerokaan awal, walaupun ia boleh terus meniru dan belajar daripada perbualan dengan manusia , tetapi asasnya masih berdasarkan penyahpepijatan berterusan berdasarkan sejumlah besar teks dan model pembelajaran Semua jawapannya datang dari Internet, dan adalah mustahil untuk benar-benar memahami maksud sebenar bahasa manusia, dan sukar untuk memberikan jawapan yang realistik. kepada senario kehidupan sebenar tertentu.
Apabila ChatGPT menemui soalan dalam bidang profesional yang belum dilatih dengan jumlah korpus yang banyak, jawapan yang diberikan selalunya tidak dapat menjawab soalan sebenar. Begitu juga, ia tidak mempunyai keupayaan lanjutan yang dikuasai manusia . Sebagai contoh, dalam gambar di bawah, semasa menjawab soalan berkaitan meteorologi, memandangkan bidang meteorologi agak khusus dan kompleks, tanpa latihan yang mencukupi dalam bidang ini, ChatGPT memberikan soalan tanpa kandungan substantif seperti balasan "akaun pemasaran". Oleh itu, walaupun ChatGPT boleh mengendalikan tugas harian, ia hanya akan menjadi tugasan berulang yang tidak memerlukan terlalu banyak kreativiti.
Namun begitu, ChatGPT masih boleh memainkan peranan positif dalam bidang keselamatan rangkaian dan dijangka menjadi pembantu yang berkuasa untuk kakitangan keselamatan rangkaian.
CtGPT Ia boleh membantu kakitangan keselamatan menjalankan ujian keselamatan pada kod. Selepas ujian awal, jika anda menyalin sekeping kod yang terdedah dan membenarkan ChatGPT menganalisisnya, alat itu boleh mengenal pasti isu keselamatan dengan cepat dan memberi cadangan khusus tentang cara membetulkannya. Walaupun ia mempunyai beberapa kekurangan, ia adalah alat yang berguna untuk pembangun yang ingin menyemak coretan kod mereka dengan cepat untuk mencari kelemahan. Memandangkan semakin banyak syarikat berusaha untuk membina keselamatan ke dalam aliran kerja pembangunan perisian, keupayaan pengesanan tepat dan pantas ChatGPT boleh meningkatkan keselamatan kod dengan berkesan.
ChatGPT dijangka meningkatkan lagi automasi skrip, penyusunan dasar dan pelaporan keselamatan, seperti menulis panduan pembaikan untuk laporan ujian penembusan. ChatGPT juga boleh menulis garis besar dengan lebih pantas, yang boleh membantu menambah elemen automatik pada laporan dan juga menyediakan sesi latihan keselamatan siber kepada pekerja. Dari segi perisikan ancaman, ChatGPT dijangka meningkatkan kecekapan perisikan dan keputusan amanah masa nyata dengan ketara, menggunakan keyakinan yang lebih tinggi daripada model akses dan identiti semasa, dan membentuk kesimpulan masa nyata tentang akses kepada sistem dan maklumat.
Sebarang teknologi baharu selalunya mempunyai kelemahan dan risiko ChatGPT membantu manusia menjadikan produk keselamatan lebih pintar dan membantu manusia dalam bertindak balas terhadap ancaman keselamatan pada masa yang sama, berdasarkan prinsip kerja pengumpulan dan penggunaan semula maklumat, adakah ia akan melepasi sempadan keselamatan dan menjana pelbagai risiko keselamatan? Di samping itu, walaupun syarat perkhidmatan ChatGPT jelas melarang penjanaan perisian hasad, termasuk perisian tebusan, keylogger, virus atau "perisian lain yang direka untuk menyebabkan tahap bahaya tertentu, di tangan penggodam, adakah ChatGPT masih akan menjadi "cakar syaitan"? Adakah serangan rangkaian lebih meluas dan kompleks?
Memandangkan ChatGPT perlu mengumpul data rangkaian yang luas dan mendapatkan maklumat daripada perbualan dengan orang untuk melatih model, ia menunjukkan Ia juga mempunyai keupayaan untuk mendapatkan dan menyerap maklumat sensitif Menurut laporan media Silicon Valley, peguam Amazon mengatakan bahawa mereka menemui teks yang hampir sama dengan rahsia syarikat dalaman dalam kandungan yang dihasilkan oleh ChatGPT, mungkin kerana beberapa pekerja Amazon menggunakan ChatGPT untuk. menjana kod. dan teks, peguam bimbang bahawa data itu akan menjadi data latihan yang digunakan oleh ChatGPT untuk diulang, dan jurutera dalam Microsoft juga memberi amaran kepada pekerja untuk tidak menghantar data sensitif ke terminal OpenAI semasa kerja harian kerana OpenAI mungkin digunakan untuk latihan model masa depan
Ini juga melibatkan soalan lain: Adakah undang-undang untuk mengumpul data besar-besaran daripada Internet Alexander Hanff, ahli Lembaga Perlindungan Data Eropah (EDPB), mempersoalkan sama ada ChatGPT adalah produk Komersial? adalah banyak maklumat yang boleh diakses di Internet, mengumpul sejumlah besar data daripada tapak web dengan klausa yang melarang pihak ketiga daripada merangkak data mungkin melanggar peraturan yang berkaitan dan tidak dianggap sebagai penggunaan adil Selain itu, individu yang dilindungi oleh GDPR dsb dipertimbangkan. Maklumat, merangkak maklumat ini tidak mematuhi dan menggunakan sejumlah besar data mentah mungkin melanggar prinsip "data minimum" GDPR
Begitu juga, apabila ChatGPT dilatih berdasarkan bahasa manusia, sama ada sesetengah peribadi. data terlibat. Bolehkah ia dipadamkan secara berkesan? Menurut dasar privasi yang diterbitkan di laman web rasmi OpenAI, OpenAI tidak menyebut peraturan perlindungan data seperti GDPR EU Dalam klausa "Penggunaan Data", OpenAI mengakui bahawa ia akan mengumpul data dimasukkan oleh pengguna semasa menggunakan perkhidmatan, tetapi tidak
Menurut Artikel 17 GDPR, individu mempunyai hak untuk meminta pemadaman data peribadi mereka, iaitu, "hak untuk dilupakan" atau "hak untuk memadam". Tetapi sama ada model bahasa besar seperti ChatGPT boleh "melupakan". model sedemikian untuk memadam semua kesan maklumat peribadi Selain itu, melatih model sedemikian adalah mahal, dan syarikat AI juga tidak mungkin melatih semula keseluruhan model setiap kali selepas individu meminta untuk memadamkan data sensitif tertentu 🎜>Menggunakan ChatGPT untuk terlibat dalam aktiviti perniagaan yang menyalahi undang-undang
Aplet akaun awam yang menyediakan apa yang dipanggil perkhidmatan dialog ChatGDT
Begitu juga, sesetengah penjual turut menggunakan platform e-dagang Menyediakan perkhidmatan untuk menjual akaun ChatGPT dan pendaftaran ejen Beberapa penyiasatan media mendapati bahawa sesetengah penjual membeli akaun siap pakai secara pukal dari tapak web luar negara yang boleh diubah suai dengan kata laluan, dan harga luaran boleh mencecah 30 yuan Jika pendaftaran ejen, kosnya boleh serendah 1.2 yuan. Belum lagi risiko membocorkan privasi peribadi melalui saluran ini, menyediakan saluran antarabangsa secara peribadi dan menyediakan perkhidmatan perniagaan rentas sempadan secara terbuka juga melanggar peruntukan Undang-undang Keselamatan Siber yang berkaitan. Pada masa ini, kebanyakan akaun awam atau program kecil dengan perkataan ChatGPT telah diharamkan oleh pegawai WeChat, dan platform yang berkaitan juga menyekat pembelian dan penjualan akaun tersebut.Seperti yang dinyatakan di atas, ChatGPT boleh membantu kakitangan keselamatan mengesan kod yang terdedah dan penggodam juga boleh melakukan operasi yang serupa. Penyelidik dari media penyiasatan keselamatan digital Cybernews mendapati bahawa ChatGPT boleh digunakan oleh penggodam untuk mencari kelemahan keselamatan dalam laman web Dengan bantuannya, para penyelidik menjalankan ujian penembusan pada laman web biasa dan menggabungkan cadangan dan kod yang disediakan oleh ChatGPT dalam masa 45 minit contoh melengkapkan hack.
Selain itu, ChatGPT boleh digunakan untuk pengaturcaraan, dan sewajarnya ia juga boleh digunakan untuk menulis kod hasad. Contohnya, jika anda menulis kod VBA melalui ChatGPT, anda hanya boleh memasukkan URL hasad ke dalam kod ini dan apabila pengguna membuka fail seperti fail Excel, ia akan mula memuat turun muatan perisian hasad secara automatik. Oleh itu, ChatGPT membenarkan penggodam tanpa banyak keupayaan teknikal untuk mencipta e-mel bersenjata dengan lampiran dalam beberapa minit sahaja untuk melakukan serangan siber ke atas sasaran.
Pada Disember tahun lepas, penggodam berkongsi kod pencuri Python yang ditulis menggunakan ChatGPT di forum bawah tanah Pencuri boleh mencari jenis fail biasa (seperti dokumen MS Office, PDF dan fail imej) dan menyalinnya ke subfolder rawak. dalam folder Temp, zip dan muat naiknya ke pelayan FTP berkod keras.
Penggodam menunjukkan di forum cara menggunakan ChatGPT untuk mencipta program mencuri maklumat
Oleh kerana ChatGPT boleh mempelajari bahasa manusia, ia boleh digunakan semasa menulis kejuruteraan sosial tingkah laku seperti e-mel pancingan data dan tabiat ekspresi lebih mengelirukan. Penyelidik mendapati bahawa ChatGPT membolehkan penggodam mensimulasikan pelbagai persekitaran sosial secara realistik, dengan itu menjadikan sebarang serangan disasarkan lebih berkesan Malah penggodam dari negara bukan asli boleh menulis kod yang mematuhi tatabahasa dan logik negara sasaran tanpa sebarang e-mel pancingan data yang sangat simulasi dengan salah ejaan. atau ralat pemformatan.
E-mel pancingan data yang dijana menggunakan ChatGPT
Selepas inventori awal kelebihan dan risiko keselamatan rangkaian ChatGPT yang dinyatakan di atas, adalah jelas bahawa kedua-duanya adalah hampir sepenuhnya bertentangan. Ia mempunyai dua sisi, iaitu, jika penggodam boleh mencari kelemahan dan permukaan serangan, ia juga boleh membantu kakitangan keselamatan mengesan dan mengisi jurang dan mengecilkan jurang untuk serangan. Walau bagaimanapun, pada peringkat ini, fungsi bantuan keselamatan ChatGPT masih memerlukan semakan dan kelulusan profesional, dan mungkin terdapat kelewatan dalam proses. Penggodam penjenayah yang bermotifkan kewangan biasanya secara langsung menggunakan kecerdasan buatan untuk melancarkan serangan, dan ancamannya sukar untuk dianggarkan.
Tidak dinafikan bahawa kecerdasan buatan yang diwakili oleh ChatGPT adalah manifestasi teknologi yang cemerlang dalam beberapa tahun kebelakangan ini, bagaimanapun, disebabkan dualiti teknologi baharu ini, keselamatan rangkaian dan profesional IT tidak berpuas hati SembangGPT sudah pasti Yan mempunyai perasaan bercampur baur. Menurut kajian BlackBerry baru-baru ini, sementara 80% perniagaan mengatakan mereka merancang untuk melabur dalam keselamatan siber dipacu AI menjelang 2025, 75% masih percaya AI menimbulkan ancaman serius kepada keselamatan.
Adakah ini bermakna kita memerlukan sekumpulan peraturan baharu dengan segera untuk mengawal selia pembangunan industri kecerdasan buatan secara khusus? Beberapa pakar dan sarjana di negara kita telah menegaskan bahawa kesan sensasi yang telah dicapai oleh ChatGPT dan percubaan pelbagai modal untuk memasuki permainan tidak bermakna industri kecerdasan buatan telah mencapai pembangunan terobosan yang boleh dikendalikan oleh ChatGPT pada masa ini ciri berulang dan templat yang tersendiri, Oleh itu, agensi kawal selia tidak perlu segera menganggap penyeliaan teknikal ChatGPT sebagai tugas teras tadbir urus ruang siber pada peringkat ini, jika tidak, model perundangan negara kita akan jatuh ke dalam kitaran logik "teknologi baharu muncul dan peraturan baru digubal." Buat masa ini, negara saya telah mengisytiharkan undang-undang dan peraturan seperti Undang-undang Keselamatan Siber, Peraturan mengenai Tadbir Urus Ekologi Kandungan Maklumat Rangkaian, dan Peraturan Mengenai Pengurusan Syor Algoritma untuk Perkhidmatan Maklumat Internet, yang menetapkan peruntukan undang-undang terperinci untuk penyalahgunaan teknologi kecerdasan buatan dan teknologi algoritma Kewajipan dan sistem penyeliaan adalah mencukupi untuk menangani risiko keselamatan rangkaian yang mungkin disebabkan oleh ChatGPT dalam jangka pendek. Pada peringkat ini, pihak berkuasa kawal selia negara saya boleh menggunakan sepenuhnya sistem perundangan sedia ada untuk mengukuhkan penyeliaan industri berkaitan ChatGPT pada masa hadapan, apabila pengalaman matang, mereka boleh mempertimbangkan untuk memulakan perundangan dalam bidang aplikasi teknologi kecerdasan buatan untuk menangani; dengan pelbagai potensi risiko keselamatan.
Di luar negara, EU merancang untuk melancarkan Akta Kepintaran Buatan pada 2024, mencadangkan negara anggota mesti melantik atau menubuhkan sekurang-kurangnya satu agensi penyeliaan yang bertanggungjawab untuk memastikan bahawa "prosedur yang diperlukan dipatuhi." Rang undang-undang itu dijangka digunakan secara meluas dalam segala-galanya daripada kereta pandu sendiri kepada chatbots kepada kilang automatik.
Malah, perbincangan tentang keselamatan ChatGPT dan sama ada pekerjaan manusia akan digantikan dengan kecerdasan buatan akhirnya boleh bermuara kepada satu cadangan: adakah kecerdasan buatan mengawal manusia, atau manusia harus mengawal kecerdasan buatan. Jika kecerdasan buatan berkembang dengan cara yang sihat dan membantu manusia meningkatkan kecekapan kerja dan mempercepatkan kemajuan sosial, rangkaian kita juga akan selamat Namun, jika manusia tidak dapat mengawal kecerdasan buatan dan membiarkannya berkembang dalam arah yang tidak teratur, ia pasti akan menjadi dunia yang penuh. Dalam persekitaran rangkaian serangan dan ancaman, pada masa itu, keselamatan rangkaian mungkin tidak lagi menjadi "pertarungan kecil antara merah dan biru", tetapi akan menjadi subversi kepada keseluruhan tatanan sosial manusia.
Atas ialah kandungan terperinci Jika anda bermain ChatGPT dengan baik, anda perlu makan di penjara lambat laun?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!