Cyberkriminelle nutzen KI nicht mehr experimentell, sondern kommerzialisiert. Group-IB identifiziert eine strukturierte KI-Crimeware-Wirtschaft: Dark LLMs, Deepfake-as-a-Service und automatisierte Phishing-Kits für wenige Dollar monatlich. Die niedrigen Einstiegshürden demokratisieren Cyberkriminalität und verändern die Bedrohungslandschaft fundamental.
Die Kommerzialisierung von KI-Crimeware: Dark LLMs, Deepfake-as-a-Service und automatisierte Phishing-Kits werden für wenige Dollar monatlich angeboten.
Die Entwicklung der Cyberkriminalität hat sich in den letzten drei Jahrzehnten in mehreren Phasen vollzogen: Sie reichte von opportunistischen Angriffen in den 1990er-Jahren über organisierte Malware-Kampagnen und Cybercrime-as-a-Service-Modelle bis hin zu groß angelegten Supply-Chain-Attacken. Eine aktuelle Analyse von Group-IB belegt, dass die Cyberkriminalität nun in eine fünfte Welle eingetreten ist, die durch die Adaption und Implementierung generativer künstlicher Intelligenz in bösartigen Cyber- und Betrugsszenarien definiert wird.
Anders als bei früheren Technologien, die von Cyberkriminellen adaptiert wurden, wird KI nicht nur probeweise eingesetzt. Sie wird vielmehr als operationelle Infrastruktur in das gesamte kriminelle Ökosystem eingebettet. Die Beobachtung von Untergrundforen und Marktplätzen belegt eine anhaltende Zunahme der Diskussionen über KI-gestützte Kriminalität und deutet damit auf eine schnelle, sowie weitreichende Akzeptanz hin.
Anstatt völlig neue Angriffsformen zu entwickeln, nutzen Cyberkriminelle KI zur Verstärkung bestehender Angriffstypen. Dies ermöglicht ihnen eine Steigerung von Umfang, Geschwindigkeit und Automatisierungsgrad. Gleichzeitig verringern sich die notwendigen technischen Kompetenzen und die erforderliche Vorbereitungszeit erheblich.
Eine visuelle Darstellung der Tools, Techniken und kriminellen Ökosysteme, die die fünfte Welle der Cyberkriminalität antreiben.
(Bild: Group-IB)
Eine zentrale Erkenntnis der Untersuchung ist, dass sich eine strukturierte KI-Crimeware-Wirtschaft herausbildet. Dabei zeigt sich, dass die Nutzung von generativer KI (GenAI) die verschiedenen Bereiche der Cyberkriminalität und des Betrugs unterschiedlich stark durchdringt.
Group-IB-Analysten konnten beobachten, dass Anbieter KI-gestützter Tools, Dienste und Produkte zunehmend als gebündelte Komplettpakete auf den Markt bringen. Deren Geschäftsmodelle weisen starke Parallelen zu legalen Software-as-a-Service (SaaS)-Angeboten auf. Diese Angebote umfassen gestaffelte Preise, Abonnements, Updates und sogar Nutzer-Support. Die monatlichen Kosten für diese Dienste sind bemerkenswert niedrig und reichen von wenigen bis zu einigen hundert Dollar. Dies macht hochentwickelte Funktionen für eine sehr breite Käuferschicht zugänglich.
Diese Kommerzialisierung steigert nicht nur die Effizienz krimineller Handlungen, sondern senkt auch die Einstiegshürde für Cyberkriminalität. Aktivitäten, die früher technisches Fachwissen erforderten – wie die Erstellung und Verbreitung von Malware oder die Verwaltung umfangreicher Betrugskampagnen – werden zunehmend automatisiert und an Dienste ausgelagert, die von anderen Kriminellen auf Untergrundmärkten angeboten werden.
Infolgedessen können auch finanziell motivierte Einzelpersonen effektive Angriffe starten, ohne einer großen, organisierten kriminellen Gruppe anzugehören und ohne einen signifikanten Zeitaufwand für Vorbereitung und Schulung leisten zu müssen.
Basierend auf den Beobachtungen hat Group-IB vier kriminelle Nischen identifiziert, in denen der Einsatz von GenAI die Effektivität und den Erfolg von Kriminellen signifikant steigert. Die Analyse beleuchtet die auffälligsten bösartigen Anwendungsfälle der GenAI-gestützten „Waffenentwicklung“.
Während der Missbrauch öffentlich zugänglicher großer Sprachmodelle (LLMs) nach wie vor weit verbreitet ist, zeigt die Forschung eine wachsende Tendenz hin zu proprietären „Dark LLMs“, die speziell für kriminelle Zwecke entwickelt wurden.
Diese Modelle sind darauf ausgelegt, ethische Schutzmechanismen zu umgehen, und für Aufgaben wie die Generierung von Phishing-Inhalten, Coding-Assistenz, Betrugsskripte und Social Engineering optimiert.Group-IB hat mehrere aktive Anbieter solcher uneingeschränkten KI-Chatbots identifiziert, die häufig mit separaten API-Instanzen und einer Abrechnung pro Token angeboten werden. Parallel kursieren weiterhin verbreitet Anleitungen und Dienste zum „Jailbreaking“ legitimer KI-Systeme. Durch die Kombination dieser Ansätze können Bedrohungsakteure auf leistungsstarke Sprachfunktionen zugreifen und dabei Sicherheitskontrollen umgehen.
Deepfake-as-a-Service und synthetische Identitäten
Die Verwendung von Deepfakes und synthetischen Identitäten geht mittlerweile über das bloße Kopieren von Gesichtern berühmter Persönlichkeiten hinaus und hat sich zu einer personalisierten, überzeugenden und technologisch komplexen Nische entwickelt, die die Vertrauenswürdigkeit dessen, was wir sehen oder hören, grundlegend infrage stellt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Überwachung von Untergrundforen durch Group-IB hat einen wachsenden Markt für Deepfake-as-a-Service-Angebote aufgedeckt. Dazu gehören Stimmklonen, Lippensynchronisation, Live-Gesichtsimitation und synthetische Identitätskits. Die Anwendungsfälle für eine solche Nische reichen von Identitätsdiebstahl über Betrug bis hin zu KYC-Umgehungen und Business Email Compromise (BEC). Die Preise für einige dieser Dienste beginnen bei nur wenigen Euro, während hochtechnologische Lösungen für größere Betrugsunternehmen mehrere tausend Euro pro Jahr betragen können.
Wichtig ist: Die Wirksamkeit dieser Tools hängt nicht immer von perfekter Ausführung ab. Selbst minderwertige oder kurzlebige Imitationen können profitabel sein, wenn sie in großem Umfang eingesetzt werden.
Automatisierung über den gesamten Phishing-Lebenszyklus
KI verändert nicht nur die Art und Weise, wie Phishing-Nachrichten verfasst werden, sondern auch, wie Phishing-Kampagnen durchgeführt werden.
Moderne Phishing-Kits automatisieren bereits Hosting, Zustellung, Zielauswahl und die Bearbeitung von Antworten. Einige Anbieter im Untergrund integrieren KI-Modelle jedoch direkt in ihre Tools. Dies ermöglicht eine dynamische Anpassung der Köder an das Opferverhalten und schafft halbautomatisierte Workflows für die nahtlose Erstellung und Zustellung von Lockmitteln.
Die Spezialisten von Group-IB identifizierten zudem frühe Versionen von agentenbasierten Phishing-Funktionen, die Kampagnen mit minimalem menschlichem Eingriff steuern können und dafür lediglich Informationen über die Besuche der Opfer sowie eine minimale Angriffsbeschreibung benötigen. Obwohl diese Systeme noch nicht vollständig ausgereift sind, deuten sie auf eine Zukunft hin, in der sich Angriffsmuster so schnell ändern, dass herkömmliche Erkennungsmethoden nicht mehr mithalten können.
Implikationen für Verteidiger und Strafverfolgungsbehörden
Die Analyseergebnisse verdeutlichen einen strukturellen Wandel in der Bedrohungslandschaft. Anstatt einer begrenzten Zahl technisch versierter Akteure gegenüberzustehen, sehen sich Verteidiger nun einer breiteren Masse von Angreifern gegenüber. Diese nutzen ähnliche automatisierte Tools und kombinieren TTPs (Taktiken, Techniken und Prozeduren), wodurch die Attributionsmuster komplexer werden.
Dies erschwert die Erkennung, Zuordnung und Unterbrechung von Angriffen erheblich. Es unterstreicht zudem die entscheidende Bedeutung informationsgestützter Sicherheitsansätze. Diese müssen sich nicht nur auf die Aufdeckung und Abwehr einzelner Angriffe konzentrieren, sondern proaktiv die Ökosysteme, Tools und Dienste identifizieren und kartieren, die diese Angriffe ermöglichen.
Um dem zukünftigen Einsatz von KI proaktiv begegnen zu können, ist es unerlässlich, die heutige Operationalisierung dieser Technologie durch Kriminelle zu verstehen.
Über den Autor: Anton Ushakov ist Leiter der Abteilung für Hightech-Kriminalitätsermittlungen Europa bei der Group-IB. Ushakov ist ein Cybersicherheitsexperte, der sich auf Cyberkriminalität, Betrug und neue Angriffstechniken spezialisiert hat. Er arbeitet eng mit globalen Ermittlungen zu Phishing, Social Engineering und KI-gestützten Bedrohungen zusammen und hilft Unternehmen und Strafverfolgungsbehörden dabei, besser zu verstehen, wie sich kriminelle Ökosysteme entwickeln und ausweiten.