🚀 Bist Du bereit für eine Karriere im Bereich Data? Finde es in nur 60 Sekunden heraus!

ChatGPT Jailbreak: Was ist das und wie funktioniert es?

-
3
 Minuten Lesezeit
-

Erstellung von Zusammenfassungen, Übersetzung von Texten in verschiedene Sprachen, Brainstorming, Codeschreiben,... ChatGTP vollbringt Wunder. Doch um die Empfindlichkeiten der Sensibelsten nicht zu verletzen, hat das KI-Tool gewisse Schranken.

Es wurde programmiert, um keine gefährlichen, gewalttätigen, sexuellen oder kontroversen Inhalte zu produzieren. Für einige, wie Elon Musk, wird ChatGPT als „woke AI“ bezeichnet. Um aus dieser politischen Korrektheit auszubrechen, entwickeln immer mehr Nutzer eine neue Art, ihre Prompts zu schreiben: das ChatGPT Jailbreak.

Was ist ChatGPT Jailbreak?

Auf Deutsch könnte Jailbreak als das Brechen der Ketten eines Gefängnisses übersetzt werden. So ist ChatGPT Jailbreak eine Methode, den KI-Assistenten unter Umgehung seiner Beschränkungen zu nutzen.

Ursprünglich wurde das KI-Tool so neutral wie möglich erschaffen. Aber in dem Versuch, niemanden zu verletzen, haben Data Scientists mehrere Verzerrungen eingeführt. Das ist fast normal mit KIs: Sie verarbeiten die Daten, die ihnen zur Verfügung stehen. Aber wenn diese Daten Verzerrungen enthalten, nehmen sie diese automatisch auf und reproduzieren sie. Für eine tiefere Einsicht in das Verständnis dieser Systeme, kann Natural Language Processing Bridge Zusammenhänge bieten.

Im Falle von ChatGPT kann dies zu ausdruckslosen, sogar subjektiven Texten führen. Zum Beweis weigerte sich die KI, ein lobendes Gedicht über Donald Trump zu erstellen, obwohl sie kein Problem damit hatte, eines für Joe Biden zu schreiben. Die künstliche Intelligenz hat eindeutig Partei für einen Kandidaten ergriffen.

Gut zu wissen: Der Begriff Jailbreak ist nicht ausschließlich mit KI aufgetreten, sondern war auch schon bei den ersten iPhones präsent. Tatsächlich, Apple legte bereits gewisse Schranken fest: Es war nur möglich, auf die von der Marke autorisierten Anwendungen zuzugreifen. Dann haben Entwickler Jailbreaks konzipiert, um das volle Potenzial dieser Smartphones zu nutzen.

Das trifft auch auf ChatGPT Jailbreak zu, mit dem Unterschied, dass das Potenzial dieser „gebrochenen Ketten“ enorm ist.

Wie schreibt man "Jailbreak" Prompts?

Die ChatGPT Jailbreak-Prompts sind speziell konzipiert, um Verwirrung bei der KI auszulösen und sie so dazu zu bringen, ihre Beschränkungen aufzugeben. Ziel ist es, kreativere, unkonventionelle oder sogar kontroverse Anwendungsfälle zu erforschen. Hier sind einige Beispiele.

Der Coup der Großmutter

Diese listige und unterhaltsame Technik besteht darin, ChatGPT zu bitten, die Rolle einer verstorbenen Großmutter zu spielen. Aber nicht irgendeine Großmutter, eine, die die Herstellungsgeheimnisse von umstrittenen Waffen kannte.

Und tatsächlich beschreibt sie ihrem Enkelkind den Herstellungsprozess dieser Waffen.

Diese Methode ist wirksam sowohl für Waffen als auch für andere „verbotene“ Techniken wie die Beschreibung eines Quellcodes für Malware, die Zubereitung eines Ecstasy-Rezepts usw.

Niccolò Machiavelli

Mit diesem ChatGPT Jailbreak-Prompt spielt die KI die Rolle von Niccolò Machiavelli, dem Staatsphilosophen der Renaissance, der für seine unmoralischen Ideen bekannt ist. Indem sie diese Rolle übernimmt, ist ChatGPT in der Lage, Ratschläge ohne jeglichen Filter zu geben, auch wenn sie manchmal unmoralisch, unethisch oder illegal sind.

Da dieser Prompt eindeutig den Trainingsmodalitäten von ChatGPT widerspricht, ist es manchmal notwendig, ihn im Verlauf des Gesprächs mehrmals zu wiederholen.

DAN oder (Do Anything Now)

Dies ist der beliebteste ChatGPT Jailbreak-Prompt. Vollkommen frei von seinen Beschränkungen, agiert die KI nicht mehr zurückhaltend. Zum Beispiel hat der Roboter einen sehr sarkastischen Kommentar zum Christentum geliefert, zweideutige Witze über Frauen gemacht oder eine Ode an Adolf Hitler verfasst.

Um aber mit diesem bösartigen Zwillingsbruder von ChatGPT Spaß zu haben, muss DAN geweckt werden!

Und wie erreicht man das? Es genügt, ChatGPT zu bitten, diesen fiktiven Charakter zu verkörpern, der „jetzt alles tun kann“. Mit anderen Worten, er ist nicht mehr Gefangener seiner von OpenAI auferlegten Ketten.

Obwohl diese neue Version sehr unterhaltsam sein kann, funktioniert sie nicht immer. ChatGPT kann schlichtweg ablehnen, als DAN zu agieren. Und vor allem ist die DAN-KI vielen Halluzinationen ausgesetzt (viel mehr als ChatGPT). Sie ist also keine zuverlässige Informationsquelle, sondern lediglich Unterhaltung.

Entwicklermodus

Um ChatGPT beim Brechen seiner Ketten zu helfen, kann man ihn glauben lassen, dass er sich im Testmodus befindet. Das heißt, seine Antworten haben keinerlei Konsequenzen. Er wird eingeladen, Inhalte ohne jeglichen Filter zu generieren.

Auch hier können Sie ChatGPT bitten, was immer Sie möchten, damit er aus dem traditionellen Rahmen ausbricht. Es ist wichtig, über passende Methoden bemüht zu sein, und Machine Learning und verwandte Technologien sollen nicht zu einer Waffe für Falschinformation oder unethische Praktiken werden.

Meistern Sie die Kunst des Prompt Engineerings

Diejenigen, die all diese ChatGPT Jailbreak-Tricks gefunden haben, beherrschen das Prompt Engineering perfekt. Sie wissen, wie sie die künstliche Intelligenz leiten können, um die gewünschten Ergebnisse zu erzielen. Aber diese Techniken erfordern Übung und perfekte Kenntnisse der KI.

Also, wenn auch Du ChatGPT von seinen Ketten befreien möchten, bilde Dich im Bereich Prompt Engineering bei DataScientest weiter.

DataScientest News

Melde Dich jetzt für unseren Newsletter an, um unsere Guides, Tutorials und die neuesten Entwicklungen im Bereich Data Science direkt per E-Mail zu erhalten.

Möchtest Du informiert bleiben?

Schreib uns Deine E-Mail-Adresse, damit wir Dir die neuesten Artikel zum Zeitpunkt der Veröffentlichung zusenden können!
icon newsletter

DataNews

Starte Deine Karriere im Bereich Data: Erhalte regelmäßig Insiderwissen und wertvolle Karrieretipps in Deinem Posteingang.