Von Deepfakes bis zu digitalen Diebstählen Wie generative KI das Betrugsrisiko neu definiert

Ein Gastbeitrag von Andrey Parshin 6 min Lesedauer

Anbieter zum Thema

Generative KI prägt die Cybersicherheit neu und bietet sowohl Möglichkeiten als auch Gefahren. Wie die Studie der Group-IB hervorhebt, setzen Betrüger mittlerweile KI-gestützte Instrumente wie Deepfakes ein, um Sicherheitsmaßnahmen zu umgehen und das Vertrauen von Menschen auszunutzen. Dieser Artikel beleuchtet Fallbeispiele, Gefahren und umsetzbare Strategien, um den Bedrohungen gewachsen zu sein, die ständig wandeln.

Generative KI ist ein Wendepunkt für Innovation und Cyberkriminalität. Cyber-Betrüger nutzen GenAI als Waffe. So können Unternehmen sich in vor KI-gesteuertem Betrug schützen.(Bild:  Ahmad - stock.adobe.com)
Generative KI ist ein Wendepunkt für Innovation und Cyberkriminalität. Cyber-Betrüger nutzen GenAI als Waffe. So können Unternehmen sich in vor KI-gesteuertem Betrug schützen.
(Bild: Ahmad - stock.adobe.com)

Mit der generativen KI eröffnen sich enorme Chancen für Innovationen. Gleichzeitig erfreuen sich Cyberkriminelle noch nie dagewesener Werkzeuge. Sie setzen auf die KI, um digitale Schwachstellen in großem Umfang auszunutzen, angefangen bei Deepfake-Technologien bis hin zu automatisierten Phishing-Bots. Die neueste Studie der Group-IB enthüllt, wie sich diese Bedrohungen entwickeln und warum Unternehmen rasch reagieren müssen, um nicht ins Hintertreffen zu geraten.

Wie KI Betrugsmethoden revolutioniert

Durch die KI haben sich die Methoden des Betrugs in den letzten Jahren drastisch verändert. Zu Beginn setzten Betrüger auf einfache Modelle des Machine Learning, um Phishing- oder Spam-Kampagnen zu automatisieren. Davor automatisierten sie ihre kriminellen Aktivitäten mithilfe von einfachen Bots, wie z. B. die Interaktion mit Phishing-Opfern. Oder sie nutzten Online-Übersetzer, um Spam-Kampagnen in verschiedenen Regionen auszuweiten. Heute stütze sie sich auf Jailbroken-LLM (Large Language Models), um ihre Aktivitäten zu organisieren. Sie setzen auch ausgefeilte generierende gegnerische Netzwerke (GAN) ein, um synthetische Stimmen, Videos und Identitäten zu erschaffen. Open-Source-Werkzeuge haben die technischen Anforderungen reduziert und erlauben es nun auch unerfahrenen Kriminellen, ausgefeilte Betrugsversuche auszuführen.

Deepfakes und synthetische Medien stellen einige der beunruhigendsten Fortschritte in diesem Bereich dar. Was anfangs von fehlerhaften Bildern oder verfälschter Mimik geprägt war, entwickelt sich rasant zu einem mächtigen Instrument für Desinformation, Rufschädigung von Marken, Betrug und Verletzung der Privatsphäre. Betrüger manipulieren inzwischen Stimmen, Bilder und Nachrichteninhalte mit synthetischen Medien, um ihre Opfer zu bestimmten Handlungen zu nötigen.

Raffinierte Deepfakes sind überraschend einfach zugänglich. Das Fraud Protection Team (Team zum Schutz vor Betrug) von Group-IB demonstrierte, wie kostenlose Tools es Kriminellen leicht machen, täuschend echte Deepfakes zu erstellen. In einer kürzlichen Untersuchung der Group-IB wurden über 1 100 Deepfake-Betrugsversuche aufgedeckt, bei denen Betrüger virtuelle Kameras einsetzten, um Gesichtserkennungssysteme zu überlisten. Fast 138,5 Millionen Dollar Schaden entstanden allein in Indonesien durch falsche Kreditbewilligungen – ein alarmierendes Beispiel für die Reichweite und die Bedrohung durch diese Tools.

Diese neuen Methoden zeigen, wie effektiv KI für Betrug eingesetzt werden kann. In Verbindung mit den massiven Datenlecks der letzten Jahre können Betrüger KI-Modelle mit riesigen Mengen an realen Informationen trainieren. Dadurch wird es noch schwieriger, ihre Betrugsversuche aufzudecken.

Warum klassische Schutzmaßnahmen scheitern

Herkömmliche Methoden zur Betrugsprävention können mit der schnellen Weiterentwicklung von KI kaum mithalten. Starre Schutzmaßnahmen wie Transaktionsüberwachung, schwarze Listen und einfache KYC-Prüfungen versagen oft angesichts der dynamischen, von KI-gestützten Betrugsversuchen in Echtzeit. Betrüger sind heute in der Lage, das Verhalten legitimer Nutzer nachzuahmen, wodurch es für veraltete Systeme schwierig wird, zwischen echten und betrügerischen Aktivitäten zu unterscheiden.

Auch mehrstufige Sicherheitskonzepte haben ihre Schwachstellen. Banken, die bewährte KYC-Verfahren und RASP-Lösungen (Runtime Application Self-Protection) nutzen, sind trotzdem Deepfake-Angriffen zum Opfer gefallen. Deepfake-Technologie ermöglicht eine nahezu perfekte Täuschung und macht statische Überprüfungsmethoden somit unzureichend.

Ein aufsehenerregendes Beispiel ist der CEO von WPP, Mark Read, dessen Stimme und Aussehen von Betrügern kopiert wurden, um ein gefälschtes Microsoft-Meeting zu inszenieren. Hierbei versuchten die Betrüger, unter dem Vorwand seriöser Geschäfte, an Geld und persönliche Informationen zu gelangen.

Unternehmen sollten auf dynamische, verhaltensbasierte Prüfungen umstellen, die nicht nur den aktuellen Gerätekontext, sondern auch Nutzungsgewohnheiten, Tippverhalten und ungewöhnliche Standortdaten analysieren.

Branchen im Visier

Bestimmte Wirtschaftszweige sind durch Deepfakes und KI-gestützten Betrug besonders gefährdet. Finanzdienstleister und Fintech-Unternehmen stellen aufgrund ihrer Abhängigkeit von digitalen KYC-Verfahren und hochwertigen Transaktionen ideale Ziele dar. Deepfake-Nachahmungen können Sicherheitsvorkehrungen umgehen und so betrügerische Überweisungen, Kreditvergaben oder die Übernahme von Konten ermöglichen.

Auch der Staat und weltweit bekannte Marken sind gefährdet. Cyberkriminelle nutzen oft synthetische Nachbildungen von Regierungsvertretern und berühmten Personen, um falsche Nachrichten zu verbreiten, die öffentliche Meinung zu manipulieren oder den Ruf zu schädigen. Diese Handlungen zerstören nicht nur das Vertrauen, sondern stellen auch Regierungen, Unternehmen und Einzelpersonen vor beträchtliche Schwierigkeiten.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Kryptobranche ist ein weiteres Epizentrum für KI-gestützten Betrug. Sie ist für 88 % der gemeldeten Deepfake-Fälle im Jahr 2023 verantwortlich. Betrüger missbrauchen die Anonymität von Blockchain-Transaktionen und das rasante Wachstum der Branche für ihre Machenschaften. Auch E-Commerce-Plattformen sind gefährdet, da Kriminelle mithilfe von KI die Identität von Käufern oder Verkäufern fälschen können und so das Vertrauen in Online-Marktplätze untergraben.

Umgang mit der neuen Bedrohungslage

Zur Bekämpfung von KI-gesteuertem Betrug sind für Unternehmen moderne Erkennungssysteme unerlässlich und ein Umdenken in der Sicherheitspolitik erforderlich. KI-basierte Tools können Sprachmuster analysieren, Unstimmigkeiten in der Lippensynchronisation erkennen und Anomalien im Verhalten der Nutzer identifizieren. Durch die Kombination dieser Funktionen mit starken Prüfverfahren wie biometrischen Kontrollen, Verhaltensanalysen und der Einbeziehung des Gerätekontextes kann die Abwehr deutlich verbessert werden.

Auch ein Zero-Trust-Ansatz ist unerlässlich. Organisationen sollten jede Kommunikation – ob per E-Mail, Telefon oder Video – als potenziell bösartig betrachten, bis sie verifiziert ist. Der branchenübergreifende Austausch von Betrugsinformationen ist ebenso wichtig. Plattformen, die den sicheren Austausch von Betrugsindikatoren wie kompromittierten Geräten oder Konten ermöglichen, können Organisationen helfen, Angreifern einen Schritt voraus zu sein.

Der Faktor Mensch: Schulung und Sensibilisierung

Technologie ist zentral, aber Mitarbeiterschulungen und die Sensibilisierung der Kunden sind gleichermaßen wichtig, um Risiken zu reduzieren. Mitarbeiter müssen lernen, KI-gestützte Betrugsversuche zu erkennen und auf Social-Engineering-Angriffe zu reagieren, die auf Deepfake beruhen. Deepfake-Simulationen können Unternehmen helfen, Schwachstellen in ihren Abläufen zu identifizieren und ihre Reaktion auf Vorfälle zu verbessern.

Auf Seiten der Kunden ist Aufklärung das A und O. Eindeutige Anweisungen zur Überprüfung von Transaktionen und zur Meldung verdächtiger Aktivitäten können viele Betrugsfälle verhindern. Einfache Mittel, wie In-App-Warnungen oder Hotlines, können Kunden dazu animieren, potenziellen Betrug frühzeitig zu erkennen und zu melden.

Die Zukunftsperspektive: KI – Bedrohungen und Lösungen

Mit der Weiterentwicklung generativer KI werden Betrüger voraussichtlich komplette Angriffsketten automatisieren, von der Erkennung des Ziels bis zur Durchführung. Echtzeit-Deepfake-Interaktionen bei Transaktionen oder dem KYC-Onboarding werden zunehmend komplexer und reduzieren die Wirkung herkömmlicher Schutzmaßnahmen weiter.

Es gibt jedoch auch vielversprechende neue Ansätze zur Abwehr. Biometrische Systeme der neuesten Generation, Blockchain-basierte Identitätsprüfung und kollaborative Plattformen zur Aufklärung von Betrugshandlungen bieten vielversprechende Lösungen. Durch den Einsatz dieser Instrumente und die Förderung der Zusammenarbeit auf Industrieebene können Unternehmen die Oberhand gegenüber KI-gestützten Betrugsversuchen behalten.

Der Vormarsch synthetischer Medien erfordert unverzügliches Handeln. Während Regierungen, Unternehmen und Einzelpersonen mit den Auswirkungen ringen, muss der Fokus auf der Weiterentwicklung von Erkennungstechnologien und der Minderung von Risiken für Ruf und Finanzen liegen. Das Beispiel Indonesiens mit 135 Millionen Dollar Verlusten durch Deepfake-Betrug unterstreicht die dringende Notwendigkeit von Wachsamkeit und proaktiven Abwehrstrategien.

Der Schlüssel zum Erfolg liegt in der Anpassungsfähigkeit. Betrüger werden immer wieder neue Wege finden. Aber durch Information, proaktives Handeln und Zusammenarbeit können Unternehmen sich gegen diese wachsenden Bedrohungen wappnen.

Über den Autor: Andrey Parshin ist ein Experte für Cybersicherheit mit Schwerpunkt auf Betrugsbekämpfungstechnologien und Prävention von Cyberkriminalität bei der Group-IB. Mit einer fundierten Erfahrung in Infrastruktur, servicebasierter Architektur und DevSecOps konzentriert er sich darauf, Sicherheit nahtlos in Geschäftsprozesse zu integrieren. Seine Einblicke in KI-gestützte Betrugsprävention helfen Unternehmen, Bedrohungen vorauszubleiben und Effizienz sowie eine starke Rendite zu sichern.

(ID:50357589)