Bankmanager überweist 22 Millionen Euro an Deepfake-Betrüger Deepfakes werden zur ernsthaften Bedrohung für Unternehmen

Ein Gastbeitrag von Camellia Chan 5 min Lesedauer

Anbieter zum Thema

Ein Bankmanager überwies 22 Millionen Euro nach einem Deepfake-Videoanruf mit einem vermeintlichen Vorstand. Solche KI-generierten Täuschungen sind inzwischen eine reale Bedrohung. Traditionelle Si­cher­heits­kon­zepte reichen nicht mehr: Zero Trust muss künftig auch die Echtheit von Inhalten prüfen, nicht nur die Identität von Nutzern.

Deepfakes sind zur realen Bedrohung für Unternehmen geworden. Zero Trust muss künftig auch die Echtheit von Inhalten verifizieren, nicht nur die Identität von Nutzern.(Bild: ©  Flash memory - stock.adobe.com)
Deepfakes sind zur realen Bedrohung für Unternehmen geworden. Zero Trust muss künftig auch die Echtheit von Inhalten verifizieren, nicht nur die Identität von Nutzern.
(Bild: © Flash memory - stock.adobe.com)

Durch künstliche Intelligenz (KI) gestützte Deepfake-Technologie hat sich in den Händen von Cyberkriminellen zu einem zunehmend destruktiven Werkzeug entwickelt. Waren erste Täu­schungs­ver­suche durch Deepfakes vor allem auf die Verbreitung politischer Desinformationen und die Imitation von Prominenten beschränkt, sind sie heute eine ernstzunehmende und überzeugende Bedrohung für Unternehmen weltweit.

Denn Deepfakes haben das Potenzial, den Geschäftsbetrieb zu untergraben, Si­cher­heits­stra­te­gien lahmzulegen und wichtige Kommunikationsprozesse zu gefährden. Damit stellen sie ein akutes Risiko für Unternehmen dar – und sind ein deutliches Warnzeichen für den wachsenden Einfluss von KI auf die Cybersicherheit. Um gegen diese neue Bedrohung gewappnet zu sein, müssen Unternehmen über ihre bestehenden Notfallpläne hinaus denken und den eigentlichen Kern ihrer digitalen Infrastruktur absichern.

Was ist echt, was nicht?

Deepfakes sind heute nicht nur ein Teil der Popkultur. Die Technologie ist längst auch zu böswilligen Zwecken eingesetzt worden, etwa zur Imitation von Politikern und zur Ermöglichung groß angelegter Finanzbetrugsfälle. Eines der alarmierendsten Beispiele aus der Praxis betraf einen Bankmanager, der dazu gebracht wurde, mehr als 22 Millionen Euro zu überweisen. Er hatte einen Videoanruf von einer Person erhalten, die er für einen Unternehmensvorstand hielt. Der Betrüger nutzte einen KI-generierten Anrufer sowie begleitende betrügerische E-Mails und Dokumente – ein Hinweis auf die zunehmende Raffinesse der Kriminellen, die sich die verfügbaren Deepfake-Technologien zunutze machen.

Die Werkzeuge zur Erstellung manipulierter Medien sind inzwischen so weit verbreitet, dass Unternehmen Deepfakes nicht länger als hypothetische Bedrohung betrachten dürfen. Die rechtlichen Folgen sowie Compliance-Probleme, die entstehen können, wenn Unternehmen das wachsende Risiko ignorieren, sind gravierend. Regelwerke wie der Digital Operational Resilience Act (DORA) verlangen, dass Unternehmen ihre betriebliche Resilienz aufrechterhalten und sensible Daten adäquat schützen. Und die gesetzlichen Vorgaben entwickelt sich ständig weiter. So hat die dänische Regierung kürzlich das Urheberrecht verschärft, um Aussehen, Gesichtszüge und die Stimme von Personen vor KI-generierten Deepfakes zu schützen.

Unterbleibt der Schutz vor Deepfake-gestütztem Betrug, dann drohen Bußgelder, rechtliche Konsequenzen und dauerhafte Rufschäden. Für Unternehmen ist es deshalb entscheidend, Deepfakes in ihre übergreifende Cybersicherheits- und Risikomanagement-Strategie zu integrieren. Entsprechende Notfallpläne und Prozesse können das Haftungsrisiko mindern und sicherstellen, dass Unternehmen gut auf eine Angriff vorbereitet sind.

Zero Trust weiter vertiefen

Der Aufstieg von Deepfakes hat das Vertrauen der Nutzer in visuelle und Audio-Inhalte erschüttert. Denn diese lassen sich inzwischen leicht manipulieren. Traditionelle Vertrauensmodelle, bei denen es um die Authentizität von Benutzern, Geräten und Anwendungen geht, reichen heute nicht mehr aus; zusätzlich müssen Unternehmen auch die Authentizität von Inhalten verifizieren.

Das Zero-Trust-Sicherheitsmodell, das nach dem Prinzip „niemals vertrauen, stets verifizieren“ funktioniert, spielt weiter eine kritische Rolle bei der Verteidigung gegen immer neue Bedrohungen. Ein immer wiederkehrendes Problem bei traditionellen, softwarebasierten Sicherheitsansätzen ist jedoch die Abhängigkeit von manuellen Updates und menschlichem Zutun: Mitarbeiter sind mit in der Pflicht, Bedrohungen zu erkennen und darauf zu reagieren. Wenn KI-Angriffe gezielt darauf ausgelegt sind, das menschliche Auge zu täuschen, ist diese Strategie anfällig für den Fehlerfaktor Mensch – der weiterhin die Hauptursache für viele Sicherheitsverletzungen ist.

Unternehmen sollten deshalb ihre Zero-Trust-Prinzipien weiter ausweiten und Verfahren implementieren, um die Echtheit von video-, audio- oder bildbasierten Inhalten zu verifizieren und sich so vor verdächtiger Kommunikation zu schützen. Bei Vorgängen wie Banküberweisungen oder Zugriffen auf sensible Informationen sollte außerdem ein zweiter Freigabeschritt erfolgen. Jede Anfrage, die vertrauliche Informationen wie Finanz- oder Anmeldedaten betrifft, muss doppelt geprüft werden, etwa durch telefonische Rückrufe oder zusätzliche Genehmigungen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um die Gefahr von Deepfake-Betrugsversuchen weiter zu mindern, müssen Führungskräfte klare Richtlinien für die Vorfallserkennung und Eskalation umsetzen. Diese sollten beinhalten, dass alle Mitarbeiter verfügbare Tools zur Inhaltsverifizierung nutzen. Daneben sind regelmäßige Schulungen wichtig, damit Mitarbeiter die Warnsignale von Deepfake-Angriffen auch erkennen. Ein gesundes Maß an Skepsis – insbesondere, wenn etwas dringend oder ungewöhnlich erscheint – kann im Ernstfall entscheidend sein.

Für einen wirklich proaktiven Ansatz sollten Unternehmen aber ein mehrschichtiges Sicherheitsmodell einführen, das Authentizitätsprüfungen fest in jeder Ebene ihrer Sicherheitsinfrastruktur verankert.

Eine neue Ebene des Vertrauens

Durch Integration von Sicherheitsmechanismen auf Hardware-Ebene, die nahtlos mit den Software-Abwehrmaßnahmen zusammenarbeiten, schaffen Unternehmen eine robuste Grundlage, um die Authentizität von Inhalten zu verifizieren. So verringern sie das Risiko, dass Deepfake-Manipulationen unbemerkt bleiben.

KI spielt im Deepfake-Dilemma eine doppelte Rolle. Fortschritte im maschinellen Lernen, insbesondere bei multimodalen KI-Systemen, haben die Entwicklung leistungsfähiger Werkzeuge erlaubt, die subtile Anomalien wie unnatürliches Blinzeln oder nicht übereinstimmende Elemente in audiovisuellen Inhalten erkennen können. Sie finden auch Abweichungen, die dem bloßen Auge verborgen bleiben. Diese Werkzeuge nutzen Techniken wie Convolutional Neural Networks (CNNs), um kleinste Details in Bildern zu identifizieren, sowie Long Short-Term Memory (LSTM)-Netze und Gated Recurrent Units (GRUs), um die audiovisuelle Synchronität zu verfolgen. Durch die Integration dieser KI-gestützten Fähigkeiten mit hardwareverifizierten Überprüfungen stellen Unternehmen sicher, dass die digitale Kommunikation vertrauenswürdig ist.

Bei der Auswahl der richtigen Lösung sollten Unternehmen drei zentrale Aspekte priorisieren. Erstens muss sie im echten Zero-Trust-Sinn anwendungsagnostisch sein. Das bedeutet, die Lösung muss Deepfakes in Echtzeit erkennen können und mit Anwendungen wie Zoom, Teams, Webex, Chrome, Meta und YouTube kompatibel sein. Zweitens sollte der Fokus auf einer einfachen Einführung und nahtlosen Bereitstellung liegen – mit flexiblen Optionen, die sich vielfältigen Enterprise-Anforderungen anpassen. Drittens muss die Lösung Schutz an jedem Endpunkt bieten. Etwa durch schlanke Software-Agenten auf PCs und Laptops oder in Kombination mit sicheren SSDs, um eine einheitliche Verteidigungsschicht zu bilden.

Fazit

Ob es um die Abwehr von Deepfakes, Datenklau oder Ransomware geht: Um sich vor böswilligen Aktivitäten zu schützen, müssen Unternehmen heute einen Secure-by-Design-Ansatz verfolgen. Dabei gilt es, KI-gestützte Sicherheitsfunktionen nicht nur in Softwarelösungen zu nutzen, sondern auch auf der Hardware- und Geräteebene zu integrieren. Nur so schaffen Unternehmen eine mehrschichtige Abwehr, die Systeme auch außerhalb des Netzwerkperimeters rund um die Uhr überwacht und schützt.

KI-gestützte Bedrohungen werden weiter zunehmen. Vorausschauende Sicherheitsstrategien erfordern ebenso ausgeklügelte Verteidigungsmechanismen: KI wird zum Eckpfeiler für die Cyberabwehr der Zukunft.

Über die Autorin: Camellia Chan ist CEO und Mitbegründerin von X-PHY Inc., einem Pionier im Bereich der hardwarebasierten Cybersicherheit. Sie leitet die Mission des Unternehmens, KI-gestützte Schutzmaßnahmen in die physische Ebene einzubetten und so proaktive, autonome Sicherheit zu ermöglichen. Mit über 40 Patenten setzt sie sich für Innovation und Inklusion in der Cyberabwehr ein.

(ID:50761395)