Generative KI prägt die Cybersicherheit neu und bietet sowohl Möglichkeiten als auch Gefahren. Wie die Studie der Group-IB hervorhebt, setzen Betrüger mittlerweile KI-gestützte Instrumente wie Deepfakes ein, um Sicherheitsmaßnahmen zu umgehen und das Vertrauen von Menschen auszunutzen. Dieser Artikel beleuchtet Fallbeispiele, Gefahren und umsetzbare Strategien, um den Bedrohungen gewachsen zu sein, die ständig wandeln.
Generative KI ist ein Wendepunkt für Innovation und Cyberkriminalität. Cyber-Betrüger nutzen GenAI als Waffe. So können Unternehmen sich in vor KI-gesteuertem Betrug schützen.
(Bild: Ahmad - stock.adobe.com)
Mit der generativen KI eröffnen sich enorme Chancen für Innovationen. Gleichzeitig erfreuen sich Cyberkriminelle noch nie dagewesener Werkzeuge. Sie setzen auf die KI, um digitale Schwachstellen in großem Umfang auszunutzen, angefangen bei Deepfake-Technologien bis hin zu automatisierten Phishing-Bots. Die neueste Studie der Group-IB enthüllt, wie sich diese Bedrohungen entwickeln und warum Unternehmen rasch reagieren müssen, um nicht ins Hintertreffen zu geraten.
Wie KI Betrugsmethoden revolutioniert
Durch die KI haben sich die Methoden des Betrugs in den letzten Jahren drastisch verändert. Zu Beginn setzten Betrüger auf einfache Modelle des Machine Learning, um Phishing- oder Spam-Kampagnen zu automatisieren. Davor automatisierten sie ihre kriminellen Aktivitäten mithilfe von einfachen Bots, wie z. B. die Interaktion mit Phishing-Opfern. Oder sie nutzten Online-Übersetzer, um Spam-Kampagnen in verschiedenen Regionen auszuweiten. Heute stütze sie sich auf Jailbroken-LLM (Large Language Models), um ihre Aktivitäten zu organisieren. Sie setzen auch ausgefeilte generierende gegnerische Netzwerke (GAN) ein, um synthetische Stimmen, Videos und Identitäten zu erschaffen. Open-Source-Werkzeuge haben die technischen Anforderungen reduziert und erlauben es nun auch unerfahrenen Kriminellen, ausgefeilte Betrugsversuche auszuführen.
Deepfakes und synthetische Medien stellen einige der beunruhigendsten Fortschritte in diesem Bereich dar. Was anfangs von fehlerhaften Bildern oder verfälschter Mimik geprägt war, entwickelt sich rasant zu einem mächtigen Instrument für Desinformation, Rufschädigung von Marken, Betrug und Verletzung der Privatsphäre. Betrüger manipulieren inzwischen Stimmen, Bilder und Nachrichteninhalte mit synthetischen Medien, um ihre Opfer zu bestimmten Handlungen zu nötigen.
Raffinierte Deepfakes sind überraschend einfach zugänglich. Das Fraud Protection Team (Team zum Schutz vor Betrug) von Group-IB demonstrierte, wie kostenlose Tools es Kriminellen leicht machen, täuschend echte Deepfakes zu erstellen. In einer kürzlichen Untersuchung der Group-IB wurden über 1 100 Deepfake-Betrugsversuche aufgedeckt, bei denen Betrüger virtuelle Kameras einsetzten, um Gesichtserkennungssysteme zu überlisten. Fast 138,5 Millionen Dollar Schaden entstanden allein in Indonesien durch falsche Kreditbewilligungen – ein alarmierendes Beispiel für die Reichweite und die Bedrohung durch diese Tools.
Diese neuen Methoden zeigen, wie effektiv KI für Betrug eingesetzt werden kann. In Verbindung mit den massiven Datenlecks der letzten Jahre können Betrüger KI-Modelle mit riesigen Mengen an realen Informationen trainieren. Dadurch wird es noch schwieriger, ihre Betrugsversuche aufzudecken.
Warum klassische Schutzmaßnahmen scheitern
Herkömmliche Methoden zur Betrugsprävention können mit der schnellen Weiterentwicklung von KI kaum mithalten. Starre Schutzmaßnahmen wie Transaktionsüberwachung, schwarze Listen und einfache KYC-Prüfungen versagen oft angesichts der dynamischen, von KI-gestützten Betrugsversuchen in Echtzeit. Betrüger sind heute in der Lage, das Verhalten legitimer Nutzer nachzuahmen, wodurch es für veraltete Systeme schwierig wird, zwischen echten und betrügerischen Aktivitäten zu unterscheiden.
Auch mehrstufige Sicherheitskonzepte haben ihre Schwachstellen. Banken, die bewährte KYC-Verfahren und RASP-Lösungen (Runtime Application Self-Protection) nutzen, sind trotzdem Deepfake-Angriffen zum Opfer gefallen. Deepfake-Technologie ermöglicht eine nahezu perfekte Täuschung und macht statische Überprüfungsmethoden somit unzureichend.
Ein aufsehenerregendes Beispiel ist der CEO von WPP, Mark Read, dessen Stimme und Aussehen von Betrügern kopiert wurden, um ein gefälschtes Microsoft-Meeting zu inszenieren. Hierbei versuchten die Betrüger, unter dem Vorwand seriöser Geschäfte, an Geld und persönliche Informationen zu gelangen.
Unternehmen sollten auf dynamische, verhaltensbasierte Prüfungen umstellen, die nicht nur den aktuellen Gerätekontext, sondern auch Nutzungsgewohnheiten, Tippverhalten und ungewöhnliche Standortdaten analysieren.
Bestimmte Wirtschaftszweige sind durch Deepfakes und KI-gestützten Betrug besonders gefährdet. Finanzdienstleister und Fintech-Unternehmen stellen aufgrund ihrer Abhängigkeit von digitalen KYC-Verfahren und hochwertigen Transaktionen ideale Ziele dar. Deepfake-Nachahmungen können Sicherheitsvorkehrungen umgehen und so betrügerische Überweisungen, Kreditvergaben oder die Übernahme von Konten ermöglichen.
Auch der Staat und weltweit bekannte Marken sind gefährdet. Cyberkriminelle nutzen oft synthetische Nachbildungen von Regierungsvertretern und berühmten Personen, um falsche Nachrichten zu verbreiten, die öffentliche Meinung zu manipulieren oder den Ruf zu schädigen. Diese Handlungen zerstören nicht nur das Vertrauen, sondern stellen auch Regierungen, Unternehmen und Einzelpersonen vor beträchtliche Schwierigkeiten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Kryptobranche ist ein weiteres Epizentrum für KI-gestützten Betrug. Sie ist für 88 % der gemeldeten Deepfake-Fälle im Jahr 2023 verantwortlich. Betrüger missbrauchen die Anonymität von Blockchain-Transaktionen und das rasante Wachstum der Branche für ihre Machenschaften. Auch E-Commerce-Plattformen sind gefährdet, da Kriminelle mithilfe von KI die Identität von Käufern oder Verkäufern fälschen können und so das Vertrauen in Online-Marktplätze untergraben.
Umgang mit der neuen Bedrohungslage
Zur Bekämpfung von KI-gesteuertem Betrug sind für Unternehmen moderne Erkennungssysteme unerlässlich und ein Umdenken in der Sicherheitspolitik erforderlich. KI-basierte Tools können Sprachmuster analysieren, Unstimmigkeiten in der Lippensynchronisation erkennen und Anomalien im Verhalten der Nutzer identifizieren. Durch die Kombination dieser Funktionen mit starken Prüfverfahren wie biometrischen Kontrollen, Verhaltensanalysen und der Einbeziehung des Gerätekontextes kann die Abwehr deutlich verbessert werden.
Auch ein Zero-Trust-Ansatz ist unerlässlich. Organisationen sollten jede Kommunikation – ob per E-Mail, Telefon oder Video – als potenziell bösartig betrachten, bis sie verifiziert ist. Der branchenübergreifende Austausch von Betrugsinformationen ist ebenso wichtig. Plattformen, die den sicheren Austausch von Betrugsindikatoren wie kompromittierten Geräten oder Konten ermöglichen, können Organisationen helfen, Angreifern einen Schritt voraus zu sein.
Technologie ist zentral, aber Mitarbeiterschulungen und die Sensibilisierung der Kunden sind gleichermaßen wichtig, um Risiken zu reduzieren. Mitarbeiter müssen lernen, KI-gestützte Betrugsversuche zu erkennen und auf Social-Engineering-Angriffe zu reagieren, die auf Deepfake beruhen. Deepfake-Simulationen können Unternehmen helfen, Schwachstellen in ihren Abläufen zu identifizieren und ihre Reaktion auf Vorfälle zu verbessern.
Auf Seiten der Kunden ist Aufklärung das A und O. Eindeutige Anweisungen zur Überprüfung von Transaktionen und zur Meldung verdächtiger Aktivitäten können viele Betrugsfälle verhindern. Einfache Mittel, wie In-App-Warnungen oder Hotlines, können Kunden dazu animieren, potenziellen Betrug frühzeitig zu erkennen und zu melden.
Die Zukunftsperspektive: KI – Bedrohungen und Lösungen
Mit der Weiterentwicklung generativer KI werden Betrüger voraussichtlich komplette Angriffsketten automatisieren, von der Erkennung des Ziels bis zur Durchführung. Echtzeit-Deepfake-Interaktionen bei Transaktionen oder dem KYC-Onboarding werden zunehmend komplexer und reduzieren die Wirkung herkömmlicher Schutzmaßnahmen weiter.
Es gibt jedoch auch vielversprechende neue Ansätze zur Abwehr. Biometrische Systeme der neuesten Generation, Blockchain-basierte Identitätsprüfung und kollaborative Plattformen zur Aufklärung von Betrugshandlungen bieten vielversprechende Lösungen. Durch den Einsatz dieser Instrumente und die Förderung der Zusammenarbeit auf Industrieebene können Unternehmen die Oberhand gegenüber KI-gestützten Betrugsversuchen behalten.
Der Vormarsch synthetischer Medien erfordert unverzügliches Handeln. Während Regierungen, Unternehmen und Einzelpersonen mit den Auswirkungen ringen, muss der Fokus auf der Weiterentwicklung von Erkennungstechnologien und der Minderung von Risiken für Ruf und Finanzen liegen. Das Beispiel Indonesiens mit 135 Millionen Dollar Verlusten durch Deepfake-Betrug unterstreicht die dringende Notwendigkeit von Wachsamkeit und proaktiven Abwehrstrategien.
Der Schlüssel zum Erfolg liegt in der Anpassungsfähigkeit. Betrüger werden immer wieder neue Wege finden. Aber durch Information, proaktives Handeln und Zusammenarbeit können Unternehmen sich gegen diese wachsenden Bedrohungen wappnen.
Über den Autor: Andrey Parshin ist ein Experte für Cybersicherheit mit Schwerpunkt auf Betrugsbekämpfungstechnologien und Prävention von Cyberkriminalität bei der Group-IB. Mit einer fundierten Erfahrung in Infrastruktur, servicebasierter Architektur und DevSecOps konzentriert er sich darauf, Sicherheit nahtlos in Geschäftsprozesse zu integrieren. Seine Einblicke in KI-gestützte Betrugsprävention helfen Unternehmen, Bedrohungen vorauszubleiben und Effizienz sowie eine starke Rendite zu sichern.