KI-Betrug Wissenschaft und Industrie gegen die Deepfake-Gefahr

Ein Gastbeitrag von Pavel Goldman-Kalaydin 4 min Lesedauer

Anbieter zum Thema

Deepfakes sind schnell, billig und überzeugend. Doch welche Möglichkeiten gibt es für Unternehmen, Institutionen und die Gesellschaft sich zu schützen?

Deepfakes und KI-gestützter Betrug stellen Unternehmen, Behörden und Gesellschaft vor neue Herausforderungen. Technische Erkennung, organisatorische Maßnahmen und Forschungspartnerschaften gelten als zentrale Gegenpole.(Bild: ©  JovialFox - stock.adobe.com)
Deepfakes und KI-gestützter Betrug stellen Unternehmen, Behörden und Gesellschaft vor neue Herausforderungen. Technische Erkennung, organisatorische Maßnahmen und Forschungspartnerschaften gelten als zentrale Gegenpole.
(Bild: © JovialFox - stock.adobe.com)

Die Bedrohungslandschaft hat sich fundamental gewandelt. Deepfakes sind nicht nur ein Problem der sozialen Medien, sie wirken sich auf die gesamte Gesellschaft aus. Deepfakes untergraben das Vertrauen in Institutionen, gefährden die Integrität von Demokratien, manipulieren öffentliche Debatten und ermöglichen Finanzkriminalität in einer Grö­ßen­ord­nung, die politische Entscheidungsträger zunehmend beunruhigt. Wenn Bürger etwa nicht mehr unterscheiden können, ob ein Video ihres Kanzlers authentisch ist, entsteht ein strukturelles Vertrauensproblem, das jeden trifft.

Wie schnell sich die Bedrohung ausweitet

Aktuelle Branchendaten von Sumsub zeigen das ganze Ausmaß. In Deutschland stieg die Deepfake-Betrugsrate um 1100 Prozent im ersten Quartal 2025 gegenüber dem Vorjahr. Der Betrug mit synthetischen Ausweisdokumenten liegt in Deutschland bei 567 Prozent. Hinter diesen Zahlen verbergen sich Hinweise auf eine koordinierte Adaption von KI-Tools mit dem Ziel Cyberbetrug zu begehen. So setzen Kriminelle Live-Deepfakes in Video-Calls ein, um CEOs zu imitieren und Mitarbeitende zur Überweisung zu bewegen. Was vor wenigen Jahren noch Science-Fiction war, ist heute Realität.

Der Deutsche Digitalverband Bitkom beziffert die jährlichen Verluste deutscher Unternehmen durch Cyberangriffe auf über 220 Milliarden Euro. Ein wach­sen­der Anteil entfällt auf CEO-Fraud und KI-gestützte Imitationen. Aber die Verluste sind nicht nur finanziell. Sie sind reputativ, politisch, gesellschaftlich.

Der Rückstand in der Abwehr

Das eigentliche Problem besteht darin, dass die Innovationsgeschwindigkeit der Angreifer schneller wächst als die Abwehrkapazitäten. Traditionelle Si­cher­heits­maßnahmen hinken hinterher und Unternehmen berichten, dass die altbewährten Systeme kaum Schritt halten.

Die gute Nachricht: Es gibt bereits wirksame Werkzeuge. Spezielle KI-Systeme können typische Deepfake-Artefakte zuverlässig erkennen, biometrische Liveness-Prüfungen stellen sicher, dass eine echte Person an­wesend ist und Verhaltensanalytik entdeckt ver­dächtige Muster. Wenn diese Tools richtig integriert werden, funktionieren sie. Während sich Unternehmen daher bereits heute gut gegen Deepfakes-Betrug schützen können, fehlen vielen Institutionen und besonders Privatpersonen diese Möglichkeiten.

Warum akademisch-industrielle Partnerschaften jetzt wichtig sind

Um dieser Bedrohung wirksam zu begegnen, braucht es mehr als punktuelle technische Innovationen. Es braucht eine sys­te­ma­tische Zusammenarbeit zwischen Wissenschaft und Praxis. Zwischen denjenigen, die an KI forschen, und denjenigen, die sie in der Realität ein­setzen.

Forschungskooperationen können die Lücke zwischen Labor und operativer Linie schließen. Sie verbinden akademische Sorgfalt und Methodik mit praktischer Dringlichkeit. Wenn Uni­versi­tä­ten eng mit Unternehmen zusammenarbeiten, entstehen nicht nur bessere Lösungen, sondern auch neue Erkenntnisse.

Im September 2025 wurde eine solche Partnerschaft zwischen Sumsub und der Constructor University in Bremen angekündigt. Ein Modell, das zeigen kann, wie Wissenschaft und Wirt­schaft ineinandergreifen sollten. Experten wie Professor Dmitry Vetrov, der zu Bay­es'schen Methoden, generativen Modellen und Deep Learning forscht, und Professorin Hilke Brockmann, die sich mit Vertrauen und Governance im KI-Kontext be­fasst, arbeiten am Projekt mit und profitieren von den finanziellen Mitteln für ihre Forschung und der Ex­per­tise zu Deepfakes. Studierende werden in Produkt- und Technikteams eingebunden.

Diese Praxiserfahrungen ermöglichen es aufstrebenden KI-Experten, an hoch entwickelten Anti-Betrugs-Tools zu arbeiten, praktische Fähigkeiten zu erwerben und Einblicke in reale Herausforderungen bei Iden­ti­täts­prü­fung und digitaler Si­cher­heit zu gewinnen. In Zukunft sollen daher noch weitere solche Kooperationen folgen.

Der Weg nach vorne: Langfristige Resilienz durch Zusammenarbeit

Die Bedrohung ist real. Aber sie ist nicht unbeherrschbar, vorausgesetzt es wird auf drei Ebenen gleichzeitig gehandelt:

  • Unternehmen müssen ihre Prozesse modernisieren und mehrschichtige Ab­wehr­maß­nah­men kombinieren. Diese beinhalten KI-gestützte Erkennung, biometrische Verifikation und Verhaltensanalytik. Sie müssen ihre Mitarbeitenden schulen und mit Si­cher­heitsexperten zusammenarbeiten. Und vor allem müssen sie verstehen, dass Deepfake-Abwehr kein ein­mal­iges Projekt ist, sondern kontinuierliche Anpassung an neue Bedrohungen erfordert.
  • Auf der individuellen Ebene braucht es eine bessere Wachsamkeit von jedem Einzelnen. Menschen müssen trainiert werden, kritisch zu denken, verdächtige Signale zu erkennen und im Zweifelsfall nachzufragen. Bewusstsein ist ein starker Schutzschild – wenn es sys­te­ma­tisch aufgebaut wird.
  • Auf der akademischen Ebene liegt der Schlüssel zur langfristigen Resilienz. Durch öffentlich zugängliche Forschungsergebnisse aus solchen Kooperationen profitieren alle, die sich mit Deepfakebekämpfung beschäftigen. Und nur durch eine praxisnahe Ausbildung entsteht eine neue Generation von Experten, die Bedrohungen nicht nur bekämpft, sondern auch versteht und antizipiert. Universitäten müssen ihre akademische Expertise direkt in den Kampf gegen digitalen Betrug einbringen und Studierende mit realen Herausforderungen konfrontieren.

Diese drei Ebenen aus robusten Corporate-Systemen, menschlicher Wachsamkeit und sys­te­ma­tische akademische Ausbildung schaffen zusammen echte Resilienz. Nicht gegen diese eine Bedrohung, sondern gegen die nächste und die übernächste.

Über den Autor: Pavel Goldman-Kalaydin ist Head of Artificial Intelligence and Machine Learning bei Sumsub, einer globaren Full-Cycle-Verifizierungsplattform. Mit einem umfassenden Hintergrund in der Softwareentwicklung ist Pavel seit über zehn Jahren im Bereich Künstliche Intelligenz und Machine Learning tätig. Bei Sumsub leitet er die Entwicklung von Technologien zur Prävention digitaler Betrugsversuche.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50682196)