KI-Chatbots lassen sich manipulieren Microsoft meldet Jailbreak für GPT, Llama und Gemini

Von Thomas Joos 1 min Lesedauer

Anbieter zum Thema

In den verschiedenen KI-Chatbots haben die Entwickler Sicherheitsfunktionen integriert, um verbotene, unmoralische oder gefährliche Antworten zu umgehen. Microsoft zeigt jetzt, wie sich diese Maßnahmen umgehen lassen.

Microsoft hat Schwachstellen bei verschiedenen KI-Modellen gefunden.(Bild:  Deemerwha studio - stock.adobe.com)
Microsoft hat Schwachstellen bei verschiedenen KI-Modellen gefunden.
(Bild: Deemerwha studio - stock.adobe.com)

Microsoft zeigt in einem Blogbeitrag, wie sich Sicherheitsmaßnahmen von verschiedenen KI-Chatbots aushebeln lassen. Dazu kommt eine Art Software-Dietrich zum Einsatz, der in der Lage ist durch Änderungen das Verhalten der Bots auszuhebeln.

Das steckt hinter dem Microsoft-Jailbreak für KI-Chatbots

Generative Künstliche Intelligenz (KI) lässt sich mit Jailbreaks oder direkte Prompt Injection Angriffen kompromittieren. Ein erfolgreicher Jailbreak kann die von den KI-Anbietern implementierten Schutzmaßnahmen unterlaufen. Ein erfolgreicher Jailbreak kann daher dazu führen, dass das KI-System gegen die Richtlinien der Betreiber verstößt, Entscheidungen unzulässig beeinflusst oder bösartige Anweisungen ausführt. Diese Angriffe können dazu genutzt werden, die KI-Modelle dazu zu bringen, verbotene oder gefährliche Inhalte zu generieren.

Die neue Bedrohung: Skeleton Key

Eine kürzlich entdeckte Jailbreak-Technik, Skeleton Key genannt, nutzt eine mehrstufige Strategie, um die Sicherheitsvorkehrungen von KI-Modellen zu umgehen. Dieser Angriff kann dazu führen, dass das Modell nicht mehr zwischen erlaubten und verbotenen Anfragen unterscheiden kann. Microsoft hat diese Technik in den Modellen von Azure erkannt und entsprechende Gegenmaßnahmen ergriffen. Skeleton Keys bringen ein Modell dazu, seine Verhaltensrichtlinien so zu erweitern, dass es auf jede Anfrage reagiert, auch wenn die Antwort möglicherweise schädlich oder illegal ist.

Während der Tests zwischen April und Mai 2024 wurde die Skeleton Key Technik in verschiedenen generativen KI-Modellen, darunter Meta Llama3-70b-instruct, Google Gemini Pro, OpenAI GPT 3.5 Turbo und anderen, erfolgreich angewendet. Alle betroffenen Modelle gaben die angeforderten Informationen ohne Zensur aus, lediglich versehen mit einer Warnung.

(ID:50084811)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung