WormGPT und KawaiiGPT senken Einstiegshürden für Angreifer KI-Modelle für Cyberangriffe beschleunigen Angriffsketten

Ein Gastbeitrag von Arnd Gille 5 min Lesedauer

Anbieter zum Thema

Ungefilterte LLMs wie WormGPT und KawaiiGPT liefern täuschende Mails und ausführbaren Code in Sekunden. Dadurch sinken Einstiegshürden, Angriffsketten werden automatisiert und die Qualität gleicht sich nach oben an. Unternehmen müssen Erkennung und Reaktion beschleunigen und Sicherheit organisatorisch verankern, nicht nur technisch.

Ungefilterte KI-Modelle wie WormGPT und KawaiiGPT senken die Einstiegshürden und liefern täuschende Mails sowie ausführbaren Code, weshalb Unternehmen Erkennung und Reaktion beschleunigen müssen.(Bild: ©  Eightshot Studio - stock.adobe.com)
Ungefilterte KI-Modelle wie WormGPT und KawaiiGPT senken die Einstiegshürden und liefern täuschende Mails sowie ausführbaren Code, weshalb Unternehmen Erkennung und Reaktion beschleunigen müssen.
(Bild: © Eightshot Studio - stock.adobe.com)

Large Language Models (LLMs) galten lange als Enabler für effizientere Prozesse und schnellere Analysen. Doch im Schatten des Fortschritts entstehen Systeme, die andere Ziele verfolgen. Erkenntnisse von Palo Alto Networks’ Unit 42 zeigen, wie KI ohne Schutzmechanismen in wenigen Sekunden überzeugende Täuschungen und funktionalen Schadcode erzeugt und damit eine neue Angriffsrealität schafft.

Sprachmodelle beherrschen präzise Formulierungen, erkennen Muster und können Code generieren oder anpassen. Diese Stärken werden in der IT-Sicherheit genutzt, um große Datenmengen auszuwerten, Reaktionszeiten zu verkürzen oder Routineaufgaben zu automatisieren. Gleichzeitig bilden sie die Basis für ein Risiko, das sich in den vergangenen Monaten deutlich verschärft hat. Modelle, die ohne Schutzmechanismen auskommen oder gezielt für Angriffe entwickelt wurden, ermöglichen es inzwischen auch Personen ohne tiefgehendes Fachwissen, gefährliche Cyberangriffe durchzuführen. Daran zeigt sich, in welchem Ausmaß die Technologie Chancen und Risiken zugleich birgt.

Die entscheidende Veränderung besteht darin, dass diese Systeme nicht mehr durch eingebaute Schutzmechanismen ausgebremst werden. Wo reguläre Modelle Anfragen blockieren oder entschärfen, liefern modifizierte Varianten die gewünschten Inhalte ohne Einschränkung aus. Dadurch entstehen Werkzeuge, die sowohl sprachlich als auch technisch hochwertige Ergebnisse erzeugen und Angriffsschritte in einem Ausmaß automatisieren, wie es bislang nicht möglich war.

Niedrigere Einstiegshürden für Angreifer

Ein zentraler Effekt der Entwicklung ist, dass die technischen Einstiegshürden deutlich sinken. Angriffe, die früher tiefgehende Kenntnisse in Programmierung oder Netzwerktechnik erforderten, lassen sich heute mit wenigen Eingaben ausführen. Die Modelle bündeln Wissen aus Schadsoftware und Social Engineering und stellen es sofort anwendbar bereit. Individuelle Fähigkeiten der Angreifer und Verteidiger verlieren dadurch an Bedeutung, während Geschwindigkeit und Skalierbarkeit von Angriffen zunehmen.

Die Vorbereitung eines Angriffs dauert nicht mehr Tage oder Stunden, sondern erfolgt in Echtzeit. LLMs erstellen argumentativ überzeugende Nachrichten, generieren Schadcode oder übernehmen die logische Strukturierung ganzer Angriffsketten. Das Ergebnis ist ein Umfeld, in dem sich die Qualität von Angriffen angleicht und auch weniger erfahrene Akteure professionelle Ergebnisse erzielen können.

WormGPT: Die Kommerzialisierung eines Angriffsmodells

Ein prominentes Beispiel für diese Entwicklung ist WormGPT. Das Modell hat sich zu einem bekannten Werkzeug entwickelt, das bewusst auf Sicherheitsfilter verzichtet. Es wurde mit Datensätzen trainiert, die aus Schadsoftware, technischen Anleitungen und Social-Engineering-Inhalten bestehen. Damit bildet es einen Gegenentwurf zu regulären Sprachmodellen. Der Ansatz ist darauf ausgerichtet, ohne jede Einschränkung Ergebnisse zu liefern, die für Angriffe nutzbar sind.

WormGPT erzeugt Texte, die sich in Tonalität und Präzision an geschäftliche Kommunikation anlehnen. Dadurch entfallen typische Erkennungsmerkmale klassischer Phishing-Mails. Hinzu kommt die Fähigkeit, sofort ausführbaren Code zu erstellen, darunter Skripte zur Verschlüsselung von Dateien oder zur Kommunikation mit externen Steuerungsservern. Die Kombination aus technischer und sprachlicher Automatisierung führt dazu, dass komplexe Angriffsszenarien mit minimalem Aufwand umsetzbar sind.

Der Trend wird durch kommerzielle Angebote weiter verstärkt, die den Zugang zu solchen Modellen erleichtern. WormGPT wird zum Beispiel über einfache Abos vermarktet und auf Plattformen verbreitet, auf denen immer mehr Nutzer aktiv sind. Die niedrigen Einstiegshürden fördern eine Professionalisierung, die ohne großen Aufwand genutzt werden kann, und stärken so das Prinzip von Cybercrime-as-a-Service.

KawaiiGPT: Angriff als Open-Source-Projekt

Neben kommerziellen Modellen hat sich mit KawaiiGPT eine frei zugängliche Variante etabliert, die den Einstieg noch weiter vereinfacht. Das Modell lässt sich schnell installieren und über eine einfache Kommandozeile bedienen. Damit richtet es sich an Nutzer, die bisher weder technische Erfahrung noch finanzielle Ressourcen für spezialisierte Tools hatten. Die Bedienbarkeit steht im Mittelpunkt, was die Reichweite deutlich erhöht.

Trotz seiner spielerisch wirkenden Oberfläche kann das Modell direkt Inhalte erzeugen, die sich für Cyberangriffe nutzen lassen. Es erstellt täuschend echte Phishing-Mails, generiert direkt einsetzbare Skripte zur Ausbreitung in Netzwerken und ermöglicht die automatisierte Exfiltration sensibler Daten über gängige Standardbibliotheken. Somit wird die Erkennung durch Sicherheitsmechanismen erschwert, da sich die generierten Programme im Netzwerkverkehr oft kaum von legitimen Anwendungen unterscheiden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Community-Struktur rund um das Projekt trägt zusätzlich zur Weiterentwicklung bei. Nutzer tauschen Erfahrungen aus, diskutieren Verbesserungen und verstärken damit die Dynamik eines Werkzeuges, das durch seine Offenheit besonders verbreitungsfähig ist. Das Ergebnis ist ein Ökosystem, das Angriffsoptionen als frei zugängliche Ressource bereitstellt.

Neue Herausforderungen für Unternehmen

Die Existenz solcher KI-Modelle verdeutlicht, dass Unternehmen ihre Sicherheitsarchitektur anpassen müssen. Klassische Indikatoren wie fehlerhafte Grammatik in Phishing-Mails oder unprofessionell geschriebene Schadprogramme verlieren an Aussagekraft. Gleichzeitig steigt die Variabilität der Angriffe, da LLMs Inhalte je nach Bedarf neu kombinieren und variieren können.

Die Geschwindigkeit, mit der komplette Angriffsketten generiert werden können, erfordert eine stärkere Fokussierung auf proaktive Verteidigungsmaßnahmen. Dazu gehören robuste Mechanismen zur Anomalie-Erkennung, kontinuierliche Analyse neuer Angriffsformen und organisatorische Strukturen, die schnelle Reaktionen erlauben. Die Unit 42 von Palo Alto Networks weist in diesem Zusammenhang darauf hin, dass diese Entwicklung nicht nur ein technisches Problem ist. Sie betrifft das gesamte Unternehmen und erfordert umfassende Strategien für Risiko- und Sicherheitsmanagement – also technische, organisatorische und menschliche Maßnahmen. Es reicht nicht, nur die Technik zu verbessern; auch Prozesse, Schulungen und das allgemeine Sicherheitsbewusstsein müssen angepasst werden, um die neuen Bedrohungen wirksam abzuwehren.

Ausblick: Widerstandsfähige Systeme werden entscheidend

Die Frage der Zukunft von IT-Sicherheit ist eng verknüpft mit der Fähigkeit, Systeme zu schaffen, die widerstandsfähig gegenüber KI-gestützten Angriffen sind. Es geht dabei weniger um das Blockieren einzelner Werkzeuge als um einen strukturellen Ansatz, der sowohl Skalierbarkeit als auch Geschwindigkeit berücksichtigt. Die analysierten Modelle zeigen, dass die Dualität von KI nicht bloß reine Theorie ist, sondern bereits aktiv genutzt wird. Unternehmen müssen daher sowohl technische Maßnahmen als auch langfristige Strategien entwickeln, um dieser Form digitaler Risiken zu begegnen.

Über den Autor: Arnd Gille leitet in seiner Position als Director Solutions Consulting bei Palo Alto Networks ein Team, das Großkunden in Deutschland bei der Bewältigung moderner Sicherheitsherausforderungen unterstützt. Mit rund 25 Jahren Erfahrung in der IT-Branche bringt Arnd umfassende Fachkenntnisse in seine Arbeit ein und kombiniert technisches Know-how mit einem fundierten Verständnis für unternehmerische und strategische Zusammenhänge.

(ID:50661428)