Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Warum gibt es keine ChatGPT-Jailbreaks mehr? 7 Gründe, warum ChatGPT-Jailbreaks nicht funktionieren

Warum gibt es keine ChatGPT-Jailbreaks mehr? 7 Gründe, warum ChatGPT-Jailbreaks nicht funktionieren

WBOY
WBOYOriginal
2024-06-14 20:52:501188Durchsuche

Seitdem hat OpenAI ChatGPT verschärft, um die Ausführung von Jailbreaks deutlich zu erschweren. Aber das ist nicht alles; ChatGPT-Jailbreaks scheinen im Allgemeinen ausgetrocknet zu sein, was ChatGPT-Benutzer dazu veranlasst, sich zu fragen, ob Jailbreaks überhaupt funktionieren.

Also, wo sind all die ChatGPT-Jailbreaks geblieben?

1. Die Eingabeaufforderungskompetenzen von ChatGPT haben sich allgemein verbessert

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Vor der Einführung von ChatGPT war die Konversation mit KI eine Nischenkompetenz, die nur denjenigen vorbehalten war, die in Forschungslabore eingeweiht waren. Den meisten frühen Benutzern mangelte es an Fachkenntnissen in der Erstellung effektiver Eingabeaufforderungen. Dies veranlasste viele Menschen dazu, Jailbreaks einzusetzen, eine praktische Möglichkeit, den Chatbot mit minimalem Aufwand und Einweisungskompetenz dazu zu bringen, das zu tun, was sie wollten.

Heute hat sich die Landschaft weiterentwickelt. Das Anfordern von Kompetenzen wird zu einer Mainstream-Fähigkeit. Durch eine Kombination aus Erfahrungen aus wiederholter Nutzung und Zugriff auf frei verfügbare ChatGPT-Eingabeleitfäden haben ChatGPT-Benutzer ihre Eingabeaufforderungsfähigkeiten verfeinert. Anstatt nach Problemumgehungen wie Jailbreaks zu suchen, ist ein Großteil der ChatGPT-Benutzer geschickter darin geworden, verschiedene Aufforderungsstrategien zu verwenden, um Ziele zu erreichen, für deren Erreichung sie in der Vergangenheit Jailbreaks benötigt hätten.

2. Der Aufstieg unzensierter Chatbots

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Da große Technologieunternehmen die Inhaltsmoderation bei Mainstream-KI-Chatbots wie ChatGPT verschärfen, entscheiden sich kleinere, gewinnorientierte Startups für weniger Einschränkungen und setzen auf Nachfrage nach zensurfreien KI-Chatbots. Mit ein wenig Recherche werden Sie Dutzende von KI-Chatbot-Plattformen finden, die unzensierte Chatbots anbieten, die fast alles können, was Sie von ihnen erwarten.

Ganz gleich, ob Sie Kriminalthriller und Romane mit schwarzem Humor schreiben, die ChatGPT nicht schreiben möchte, oder Malware schreiben, die die Computer anderer Menschen angreift, diese unzensierten Chatbots mit einem verzerrten moralischen Kompass machen alles, was Sie wollen. Wenn sie da sind, macht es keinen Sinn, zusätzliche Energie in das Schreiben von Jailbreaks für ChatGPT zu investieren. Obwohl sie nicht unbedingt so leistungsstark wie ChatGPT sind, können diese alternativen Plattformen bequem eine Vielzahl von Aufgaben erledigen. Plattformen wie FlowGPT und Unhinged AI sind einige beliebte Beispiele.

3. Jailbreaking ist schwieriger geworden

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

In den ersten Monaten von ChatGPT war das Jailbreaking von ChatGPT so einfach wie das Kopieren und Einfügen von Eingabeaufforderungen aus Online-Quellen. Sie könnten die Persönlichkeit von ChatGPT mit nur ein paar Zeilen kniffliger Anweisungen völlig verändern. Mit einfachen Eingabeaufforderungen könnten Sie ChatGPT in einen bösen Bösewicht verwandeln, der Ihnen lehrt, wie man Bomben herstellt, oder in einen Chatbot, der bereit ist, alle Formen von Schimpfwörtern ohne Hemmungen zu verwenden. Es war ein Free-for-All, das berüchtigte Jailbreaks wie DAN (Do Anything Now) hervorbrachte. DAN beinhaltete eine Reihe scheinbar harmloser Anweisungen, die den Chatbot dazu zwangen, alles zu tun, was von ihm verlangt wurde, ohne sich zu weigern. Erstaunlicherweise funktionierten diese groben Tricks damals.

Doch diese wilden Anfänge sind Geschichte. Diese grundlegenden Aufforderungen und billigen Tricks täuschen ChatGPT nicht mehr. Jailbreaking erfordert jetzt komplexe Techniken, um die mittlerweile robusten Schutzmaßnahmen von OpenAI zu umgehen. Da das Jailbreak immer schwieriger wird, sind die meisten Benutzer zu entmutigt, es zu versuchen. Die einfachen und weit verbreiteten Exploits aus den Anfängen von ChatGPT sind verschwunden. Den Chatbot dazu zu bringen, ein falsches Wort zu sagen, erfordert jetzt erhebliche Anstrengungen und Fachkenntnisse, die sich möglicherweise nicht lohnen.

4. Die Neuheit hat nachgelassen

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Eine treibende Kraft hinter den Versuchen vieler Benutzer, ChatGPT zu jailbreaken, war der Nervenkitzel und die Aufregung, die damit in den frühen Tagen verbunden waren. Als neue Technologie war es unterhaltsam, ChatGPT dazu zu bringen, sich daneben zu benehmen, und man konnte damit prahlen. Obwohl es unzählige praktische Anwendungen für ChatGPT-Jailbreaks gibt, haben viele sie wegen des „Wow, schauen Sie, was ich getan habe“-Appeals verfolgt. Allmählich ließ jedoch die Aufregung über die Neuheit nach und damit auch das Interesse der Menschen, Zeit für Jailbreaks aufzuwenden.

5. Jailbreaks werden schnell gepatcht

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

In der ChatGPT-Jailbreaking-Community ist es üblich, jeden erfolgreichen Exploit zu teilen, wenn er entdeckt wird. Das Problem besteht darin, dass OpenAI häufig auf Exploits aufmerksam wird, die weit verbreitet sind, und die Schwachstellen behebt. Das bedeutet, dass die Jailbreaks nicht mehr funktionieren, bevor Interessenten sie überhaupt ausprobieren können.

Jedes Mal, wenn ein ChatGPT-Benutzer mühsam einen neuen Jailbreak entwickelt, beschleunigt das Teilen mit der Community dessen Untergang durch Patching. Dies schwächt die Idee, an die Öffentlichkeit zu gehen, wenn ein Benutzer auf einen Jailbreak stößt. Der Konflikt zwischen dem Aktivhalten und Verbergen von Jailbreaks und deren Veröffentlichung stellt die Ersteller von ChatGPT-Jailbreaks vor ein Dilemma. Heutzutage entscheiden sich die Leute meistens dafür, ihre Jailbreaks geheim zu halten, um zu verhindern, dass die Lücken geschlossen werden.

6. Unzensierte lokale Alternativen

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Der Aufstieg lokaler großer Sprachmodelle, die Sie lokal auf Ihrem Computer ausführen können, hat auch das Interesse an ChatGPT-Jailbreaks gedämpft. Während lokale LLMs nicht völlig zensurfrei sind, unterliegen viele deutlich weniger Zensur und können leicht an die Wünsche der Benutzer angepasst werden. Die Auswahl ist also einfach. Sie können sich auf das endlose Katz-und-Maus-Spiel einlassen und versuchen, einen Weg zu finden, den Chatbot auszutricksen, nur um das Problem in Kürze zu beheben. Oder Sie entscheiden sich für ein lokales LLM, das Sie dauerhaft modifizieren können, um alles zu tun, was Sie wollen.

Sie finden eine überraschend lange Liste leistungsstarker, unzensierter LLMs, die Sie mit laxer Zensur auf Ihrem Computer einsetzen können. Einige bemerkenswerte Exemplare sind Llama 7B (unzensiert), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B und GPT-4-X-Alpaca.

7. Professionelle Jailbreaker jetzt gewinnbringend im Angebot

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don't Work

Warum sollten Sie wertvolle Zeit in die Entwicklung von Jailbreak-Eingabeaufforderungen investieren, wenn Sie nichts davon haben? Nun, einige Profis verkaufen Jailbreaks mittlerweile mit Gewinn. Diese professionellen Jailbreak-Ersteller entwerfen Jailbreaks, die bestimmte Aufgaben ausführen, und bieten sie auf Prompt-Marktplätzen wie PromptBase zum Verkauf an. Abhängig von ihren Fähigkeiten können diese Jailbreak-Eingabeaufforderungen für zwischen 2 und 15 US-Dollar pro Eingabeaufforderung verkauft werden. Einige komplizierte mehrstufige Exploits können deutlich mehr kosten.

Könnte das Vorgehen gegen Jailbreaks nach hinten losgehen?

Jailbreaks sind noch nicht ganz von der Bildfläche verschwunden; Sie sind einfach untergetaucht. Da OpenAI ChatGPT monetarisiert, haben sie stärkere Anreize, schädliche Nutzungen einzuschränken, die sich auf ihr Geschäftsmodell auswirken könnten. Dieser kommerzielle Faktor beeinflusst wahrscheinlich ihren aggressiven Vorstoß, gegen Jailbreaking-Exploits vorzugehen.

Allerdings stößt die Zensur von ChatGPT durch OpenAI derzeit auf zunehmende Kritik bei Nutzern. Einige legitime Anwendungsfälle des KI-Chatbots sind aufgrund strenger Zensur nicht mehr möglich. Während erhöhte Sicherheit vor schädlichen Anwendungsfällen schützt, könnten übermäßige Einschränkungen letztendlich einen Teil der ChatGPT-Community in die Arme weniger zensierter Alternativen drängen.

Das obige ist der detaillierte Inhalt vonWarum gibt es keine ChatGPT-Jailbreaks mehr? 7 Gründe, warum ChatGPT-Jailbreaks nicht funktionieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn