Rumah  >  Artikel  >  Peranti teknologi  >  Mengapa Tiada Lagi ChatGPT Jailbreak? 7 Sebab ChatGPT Jailbreak Tidak Berfungsi

Mengapa Tiada Lagi ChatGPT Jailbreak? 7 Sebab ChatGPT Jailbreak Tidak Berfungsi

WBOY
WBOYasal
2024-06-14 20:52:501253semak imbas

Sejak itu, OpenAI telah mengetatkan ChatGPT untuk menjadikan jailbreak lebih sukar untuk dilaksanakan. Tetapi bukan itu sahaja; Jailbreak ChatGPT, secara amnya, nampaknya telah kering, menyebabkan pengguna ChatGPT tertanya-tanya sama ada jailbreak berfungsi sama sekali.

Jadi, ke manakah hilangnya semua jailbreak ChatGPT? . Kebanyakan pengguna awal tidak mempunyai kepakaran dalam mencipta gesaan yang berkesan. Ini mendorong ramai orang untuk menggunakan jailbreak, cara yang sesuai untuk membuat chatbot melakukan apa yang mereka mahu dengan usaha yang minimum dan kemahiran mendorong.

Hari ini, landskap telah berkembang. Kemahiran menggesa menjadi kemahiran arus perdana. Melalui gabungan pengalaman yang diperoleh daripada penggunaan berulang dan akses kepada panduan gesaan ChatGPT yang tersedia secara percuma, pengguna ChatGPT telah mengasah kebolehan menggesa mereka. Daripada mencari penyelesaian seperti jailbreak, sebahagian besar pengguna ChatGPT telah menjadi lebih mahir menggunakan strategi dorongan yang berbeza untuk mencapai matlamat yang mereka perlukan jailbreak untuk dicapai pada masa lalu.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work 2. Kebangkitan Chatbots Tanpa Penapisan

Memandangkan firma teknologi besar mengetatkan penyederhanaan kandungan pada chatbot AI arus perdana seperti ChatGPT, syarikat permulaan yang lebih kecil dan memfokuskan keuntungan memilih lebih sedikit sekatan, bertaruh atas permintaan untuk chatbot AI tanpa penapisan. Dengan sedikit penyelidikan, anda akan menemui berpuluh-puluh platform chatbot AI yang menawarkan chatbot tanpa penapis yang boleh melakukan hampir apa sahaja yang anda mahu mereka lakukan.

Sama ada menulis novel thriller jenayah dan humor gelap yang ChatGPT enggan menulis atau menulis perisian hasad yang menyerang komputer orang, chatbot tanpa penapis dengan kompas moral yang condong akan melakukan apa sahaja yang anda mahukan. Dengan kehadiran mereka, tiada gunanya anda meletakkan tenaga tambahan untuk menulis jailbreak untuk ChatGPT. Walaupun tidak semestinya berkuasa seperti ChatGPT, platform alternatif ini boleh melakukan pelbagai tugas dengan selesa. Platform seperti FlowGPT dan Unhinged AI ialah beberapa contoh yang popular.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work 3. Jailbreaking Telah Menjadi Lebih Sukar

Pada bulan-bulan awal ChatGPT, jailbreaking ChatGPT adalah semudah menyalin-menampal gesaan daripada sumber dalam talian. Anda boleh mengubah sepenuhnya keperibadian ChatGPT dengan hanya beberapa baris arahan rumit. Dengan gesaan mudah, anda boleh menukar ChatGPT menjadi penjahat jahat yang mengajar cara membuat bom atau chatbot yang sanggup menggunakan semua bentuk kata-kata kotor tanpa sekatan. Ia adalah percuma untuk semua yang menghasilkan jailbreak yang terkenal seperti DAN (Do Anything Now). DAN melibatkan satu set arahan yang kelihatan tidak berbahaya yang memaksa chatbot untuk melakukan apa sahaja yang diminta tanpa menolak. Anehnya, helah kasar ini berjaya ketika itu.

Walau bagaimanapun, hari-hari awal yang liar itu adalah sejarah. Gesaan asas dan helah murah ini tidak lagi menipu ChatGPT. Jailbreaking kini memerlukan teknik yang kompleks untuk mempunyai peluang memintas perlindungan OpenAI yang kini teguh. Dengan pemecahan jail menjadi begitu sukar, kebanyakan pengguna terlalu tidak digalakkan untuk mencubanya. Eksploitasi mudah dan terbuka luas pada hari-hari awal ChatGPT telah hilang. Mendapatkan chatbot untuk menyebut satu perkataan yang salah sekarang memerlukan usaha dan kepakaran yang ketara yang mungkin tidak berbaloi dengan masa dan usaha.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work 4. Kebaharuan Telah Lapuk

Satu kuasa pendorong di sebalik percubaan ramai pengguna untuk memecah masuk ChatGPT adalah keseronokan dan keseronokan berbuat demikian pada hari-hari awal. Sebagai teknologi baharu, membuat ChatGPT berkelakuan tidak senonoh telah menghiburkan dan memperoleh hak bermegah. Walaupun terdapat banyak aplikasi praktikal untuk jailbreak ChatGPT, ramai yang mengejarnya untuk rayuan "wow, lihat apa yang saya lakukan". Namun secara beransur-ansur, keseronokan yang berpunca daripada kebaharuan itu telah pudar, dan bersama-sama dengan itu, minat orang ramai untuk meluangkan masa kepada jailbreak.

5. Jailbreak Ditambal Dengan Pantas

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Amalan biasa dalam komuniti jailbreaking ChatGPT adalah berkongsi setiap eksploitasi yang berjaya apabila ditemui. Masalahnya ialah apabila eksploitasi dikongsi secara meluas, OpenAI sering menyedarinya dan membetulkan kelemahan tersebut. Ini bermakna jailbreak berhenti berfungsi sebelum orang yang berminat boleh mencubanya.

Jadi, setiap kali pengguna ChatGPT bersusah payah membangunkan jailbreak baharu, berkongsinya dengan komuniti mempercepatkan kematiannya melalui tampalan. Ini tidak memberi insentif idea untuk menjadi umum apabila pengguna menemui jailbreak. Konflik antara mengekalkan jailbreak aktif tetapi tersembunyi berbanding menghebahkannya menimbulkan dilema untuk pencipta jailbreak ChatGPT. Pada hari ini, lebih kerap daripada tidak, orang memilih untuk merahsiakan jailbreak mereka untuk mengelakkan kelemahan itu ditampal.

6. Alternatif Tempatan Tanpa Penapisan

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Kemunculan model bahasa besar tempatan yang boleh anda jalankan secara setempat pada komputer anda juga telah melemahkan minat dalam pemecahan penjara ChatGPT. Walaupun LLM tempatan tidak sepenuhnya bebas penapisan, kebanyakannya kurang ditapis dan boleh diubah suai dengan mudah agar sesuai dengan keinginan pengguna. Jadi, pilihannya mudah sahaja. Anda boleh terlibat dalam permainan kucing-dan-tikus yang tidak berkesudahan untuk mencari cara untuk menipu chatbot hanya untuk membetulkannya segera. Atau, anda boleh menerima LLM tempatan yang anda boleh ubah suai kekal untuk melakukan apa sahaja yang anda mahu.

Anda akan menjumpai senarai panjang yang menghairankan LLM tanpa penapis yang berkuasa yang boleh anda gunakan pada komputer anda dengan penapisan yang lemah. Beberapa yang ketara ialah Llama 7B (tidak ditapis), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B dan GPT-4-X-Alpaca.

7. Jailbreaker Profesional Kini Dijual untuk Untung

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Mengapa perlu mendedikasikan masa yang berharga untuk membangunkan gesaan jailbreaking jika anda tidak mendapat apa-apa daripadanya? Nah, sesetengah profesional kini menjual jailbreak untuk keuntungan. Pencipta jailbreak profesional ini mereka bentuk jailbreak yang melaksanakan tugas tertentu dan menyenaraikannya untuk dijual di pasaran segera seperti PromptBase. Bergantung pada keupayaan mereka, gesaan jailbreaking ini mungkin dijual pada harga antara $2 hingga $15 setiap gesaan. Sesetengah eksploitasi berbilang langkah yang rumit mungkin memerlukan kos yang lebih tinggi.

Bolehkah Tindakan Menghentikan Jailbreaks Berbalik?

Jailbreak belum sepenuhnya meninggalkan tempat kejadian; mereka baru sahaja pergi ke bawah tanah. Dengan OpenAI yang mengewangkan ChatGPT, mereka mempunyai insentif yang lebih kuat untuk menyekat penggunaan berbahaya yang boleh memberi kesan kepada model perniagaan mereka. Faktor komersial ini mungkin mempengaruhi dorongan agresif mereka untuk membanteras eksploitasi jailbreak.

Walau bagaimanapun, penapisan OpenAI terhadap ChatGPT kini menghadapi kritikan yang semakin meningkat di kalangan pengguna. Beberapa kes penggunaan sah chatbot AI tidak lagi boleh dilakukan kerana penapisan yang ketat. Walaupun peningkatan keselamatan melindungi daripada kes penggunaan yang berbahaya, sekatan yang berlebihan akhirnya boleh mendorong sebahagian daripada komuniti ChatGPT ke dalam pelukan alternatif yang kurang ditapis.

Atas ialah kandungan terperinci Mengapa Tiada Lagi ChatGPT Jailbreak? 7 Sebab ChatGPT Jailbreak Tidak Berfungsi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn