Ungefilterte LLMs wie WormGPT und KawaiiGPT liefern täuschende Mails und ausführbaren Code in Sekunden. Dadurch sinken Einstiegshürden, Angriffsketten werden automatisiert und die Qualität gleicht sich nach oben an. Unternehmen müssen Erkennung und Reaktion beschleunigen und Sicherheit organisatorisch verankern, nicht nur technisch.
Ungefilterte KI-Modelle wie WormGPT und KawaiiGPT senken die Einstiegshürden und liefern täuschende Mails sowie ausführbaren Code, weshalb Unternehmen Erkennung und Reaktion beschleunigen müssen.
Large Language Models (LLMs) galten lange als Enabler für effizientere Prozesse und schnellere Analysen. Doch im Schatten des Fortschritts entstehen Systeme, die andere Ziele verfolgen. Erkenntnisse von Palo Alto Networks’ Unit 42 zeigen, wie KI ohne Schutzmechanismen in wenigen Sekunden überzeugende Täuschungen und funktionalen Schadcode erzeugt und damit eine neue Angriffsrealität schafft.
Sprachmodelle beherrschen präzise Formulierungen, erkennen Muster und können Code generieren oder anpassen. Diese Stärken werden in der IT-Sicherheit genutzt, um große Datenmengen auszuwerten, Reaktionszeiten zu verkürzen oder Routineaufgaben zu automatisieren. Gleichzeitig bilden sie die Basis für ein Risiko, das sich in den vergangenen Monaten deutlich verschärft hat. Modelle, die ohne Schutzmechanismen auskommen oder gezielt für Angriffe entwickelt wurden, ermöglichen es inzwischen auch Personen ohne tiefgehendes Fachwissen, gefährliche Cyberangriffe durchzuführen. Daran zeigt sich, in welchem Ausmaß die Technologie Chancen und Risiken zugleich birgt.
Die entscheidende Veränderung besteht darin, dass diese Systeme nicht mehr durch eingebaute Schutzmechanismen ausgebremst werden. Wo reguläre Modelle Anfragen blockieren oder entschärfen, liefern modifizierte Varianten die gewünschten Inhalte ohne Einschränkung aus. Dadurch entstehen Werkzeuge, die sowohl sprachlich als auch technisch hochwertige Ergebnisse erzeugen und Angriffsschritte in einem Ausmaß automatisieren, wie es bislang nicht möglich war.
Niedrigere Einstiegshürden für Angreifer
Ein zentraler Effekt der Entwicklung ist, dass die technischen Einstiegshürden deutlich sinken. Angriffe, die früher tiefgehende Kenntnisse in Programmierung oder Netzwerktechnik erforderten, lassen sich heute mit wenigen Eingaben ausführen. Die Modelle bündeln Wissen aus Schadsoftware und Social Engineering und stellen es sofort anwendbar bereit. Individuelle Fähigkeiten der Angreifer und Verteidiger verlieren dadurch an Bedeutung, während Geschwindigkeit und Skalierbarkeit von Angriffen zunehmen.
Die Vorbereitung eines Angriffs dauert nicht mehr Tage oder Stunden, sondern erfolgt in Echtzeit. LLMs erstellen argumentativ überzeugende Nachrichten, generieren Schadcode oder übernehmen die logische Strukturierung ganzer Angriffsketten. Das Ergebnis ist ein Umfeld, in dem sich die Qualität von Angriffen angleicht und auch weniger erfahrene Akteure professionelle Ergebnisse erzielen können.
WormGPT: Die Kommerzialisierung eines Angriffsmodells
Ein prominentes Beispiel für diese Entwicklung ist WormGPT. Das Modell hat sich zu einem bekannten Werkzeug entwickelt, das bewusst auf Sicherheitsfilter verzichtet. Es wurde mit Datensätzen trainiert, die aus Schadsoftware, technischen Anleitungen und Social-Engineering-Inhalten bestehen. Damit bildet es einen Gegenentwurf zu regulären Sprachmodellen. Der Ansatz ist darauf ausgerichtet, ohne jede Einschränkung Ergebnisse zu liefern, die für Angriffe nutzbar sind.
WormGPT erzeugt Texte, die sich in Tonalität und Präzision an geschäftliche Kommunikation anlehnen. Dadurch entfallen typische Erkennungsmerkmale klassischer Phishing-Mails. Hinzu kommt die Fähigkeit, sofort ausführbaren Code zu erstellen, darunter Skripte zur Verschlüsselung von Dateien oder zur Kommunikation mit externen Steuerungsservern. Die Kombination aus technischer und sprachlicher Automatisierung führt dazu, dass komplexe Angriffsszenarien mit minimalem Aufwand umsetzbar sind.
Der Trend wird durch kommerzielle Angebote weiter verstärkt, die den Zugang zu solchen Modellen erleichtern. WormGPT wird zum Beispiel über einfache Abos vermarktet und auf Plattformen verbreitet, auf denen immer mehr Nutzer aktiv sind. Die niedrigen Einstiegshürden fördern eine Professionalisierung, die ohne großen Aufwand genutzt werden kann, und stärken so das Prinzip von Cybercrime-as-a-Service.
Neben kommerziellen Modellen hat sich mit KawaiiGPT eine frei zugängliche Variante etabliert, die den Einstieg noch weiter vereinfacht. Das Modell lässt sich schnell installieren und über eine einfache Kommandozeile bedienen. Damit richtet es sich an Nutzer, die bisher weder technische Erfahrung noch finanzielle Ressourcen für spezialisierte Tools hatten. Die Bedienbarkeit steht im Mittelpunkt, was die Reichweite deutlich erhöht.
Trotz seiner spielerisch wirkenden Oberfläche kann das Modell direkt Inhalte erzeugen, die sich für Cyberangriffe nutzen lassen. Es erstellt täuschend echte Phishing-Mails, generiert direkt einsetzbare Skripte zur Ausbreitung in Netzwerken und ermöglicht die automatisierte Exfiltration sensibler Daten über gängige Standardbibliotheken. Somit wird die Erkennung durch Sicherheitsmechanismen erschwert, da sich die generierten Programme im Netzwerkverkehr oft kaum von legitimen Anwendungen unterscheiden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Community-Struktur rund um das Projekt trägt zusätzlich zur Weiterentwicklung bei. Nutzer tauschen Erfahrungen aus, diskutieren Verbesserungen und verstärken damit die Dynamik eines Werkzeuges, das durch seine Offenheit besonders verbreitungsfähig ist. Das Ergebnis ist ein Ökosystem, das Angriffsoptionen als frei zugängliche Ressource bereitstellt.
Die Existenz solcher KI-Modelle verdeutlicht, dass Unternehmen ihre Sicherheitsarchitektur anpassen müssen. Klassische Indikatoren wie fehlerhafte Grammatik in Phishing-Mails oder unprofessionell geschriebene Schadprogramme verlieren an Aussagekraft. Gleichzeitig steigt die Variabilität der Angriffe, da LLMs Inhalte je nach Bedarf neu kombinieren und variieren können.
Die Geschwindigkeit, mit der komplette Angriffsketten generiert werden können, erfordert eine stärkere Fokussierung auf proaktive Verteidigungsmaßnahmen. Dazu gehören robuste Mechanismen zur Anomalie-Erkennung, kontinuierliche Analyse neuer Angriffsformen und organisatorische Strukturen, die schnelle Reaktionen erlauben. Die Unit 42 von Palo Alto Networks weist in diesem Zusammenhang darauf hin, dass diese Entwicklung nicht nur ein technisches Problem ist. Sie betrifft das gesamte Unternehmen und erfordert umfassende Strategien für Risiko- und Sicherheitsmanagement – also technische, organisatorische und menschliche Maßnahmen. Es reicht nicht, nur die Technik zu verbessern; auch Prozesse, Schulungen und das allgemeine Sicherheitsbewusstsein müssen angepasst werden, um die neuen Bedrohungen wirksam abzuwehren.
Ausblick: Widerstandsfähige Systeme werden entscheidend
Die Frage der Zukunft von IT-Sicherheit ist eng verknüpft mit der Fähigkeit, Systeme zu schaffen, die widerstandsfähig gegenüber KI-gestützten Angriffen sind. Es geht dabei weniger um das Blockieren einzelner Werkzeuge als um einen strukturellen Ansatz, der sowohl Skalierbarkeit als auch Geschwindigkeit berücksichtigt. Die analysierten Modelle zeigen, dass die Dualität von KI nicht bloß reine Theorie ist, sondern bereits aktiv genutzt wird. Unternehmen müssen daher sowohl technische Maßnahmen als auch langfristige Strategien entwickeln, um dieser Form digitaler Risiken zu begegnen.
Über den Autor: Arnd Gille leitet in seiner Position als Director Solutions Consulting bei Palo Alto Networks ein Team, das Großkunden in Deutschland bei der Bewältigung moderner Sicherheitsherausforderungen unterstützt. Mit rund 25 Jahren Erfahrung in der IT-Branche bringt Arnd umfassende Fachkenntnisse in seine Arbeit ein und kombiniert technisches Know-how mit einem fundierten Verständnis für unternehmerische und strategische Zusammenhänge.