Besserer Schutz am Service DeskSo werden Deep-Fake-Attacken zur Enttäuschung
Gesponsert von
Internetkriminelle nutzen Künstliche Intelligenz (KI), um das Aussehen und die Stimme von Entscheidungsträgern bei Telefonaten und Videokonferenzen vorzutäuschen. Solche Deep-Fake-Attacken richten sich auch zunehmend gegen die IT-Administration und den Service Desk. Zusätzliche Schutzmaßnahmen wie Specops Secure Service Desk können die Tricks der Datendiebe mithilfe MFA durchkreuzen .

Auch Videos können heutzutage gefälscht werden, in dem sie Gesichter imitieren und Stimmen täuschend echt nachahmen, warnt die Bundesregierung. Möglich wird dies durch sogenannte Deepfakes. Die täuschend echt wirkenden, manipulierten Audio- oder Videoaufnahmen werden mit Hilfe von künstlicher Intelligenz erzeugt.
Das BSI (Bundesamt für Sicherheit in der Informationstechnik) warnt, dass Deep-Fake-Attacken insbesondere dazu verwendet werden können, gezielte Phishing-Angriffe („Spear-Phishing“) durchzuführen, um Informationen und Daten zu gewinnen.
So könnte ein Angreifer diese Technologie bei Telefonaten, aber auch bei Videokonferenzen zur Durchführung von Betrug und zur Abschöpfung finanzieller Mittel nutzen. Beispielsweise könnte er eine Person mit der Stimme von deren Führungskraft anrufen, um eine Geldtransaktion auszulösen („CEO-Fraud“).
Doch Deep Fakes können noch mehr: Sie können Türen öffnen, Türen in die IT-Systeme des angegriffenen Unternehmens.
Datenschützer und IT-Sicherheitsbehörden warnen vor Deep Fakes
Cyberkriminelle nutzen jetzt schon diese Technik in Verbindung mit Social Engineering (Mensch als Schwachstelle), beispielsweise um in betriebliche Umgebungen einzudringen oder Finanztransaktionen anzuweisen, so zum Beispiel die Kirchliche Datenschutzaufsicht. So werden im Vorfeld gezielt ausgesuchte Mitarbeiterinnen und Mitarbeiter in wichtigen Positionen durch vermeintliche Geschäftsführer angerufen, mit der Anweisung schnell entsprechende Aufträge zu erledigen.
Nicht nur die Buchhaltung kann das Ziel solcher Angriffe sein, auch die IT-Administration und der Service Desk sind ein beliebtes Opfer. Ob es ein Anruf mit täuschend echter Stimme der Geschäftsführerin ist oder ein Video-Meeting mit dem angeblichen Geschäftsführer: Dank KI gelingt es immer besser, die Sinne der Opfer zu täuschen und sie zu Handlungen zu verleiten, die weitere Attacken ermöglichen und vertrauliche Daten preisgeben oder die Sicherheit Ihrer IT-Infrastruktur gefährden.
Während es für die Opfer immer schwieriger wird, einen solchen Täuschungsversuch zu erkennen, haben die Angreifenden immer leichteres Spiel. So berichtet das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit: Die nötige Software für solche Angriffe findet sich als Open-Source-Software frei verfügbar im Netz, überzeugende Manipulationen können damit automatisiert erstellt werden.
Die EU-Agentur für Cybersicherheit ENISA stuft den Missbrauch von KI zur Manipulation als eine der größten Bedrohungen in den nächsten Jahren ein.
Zusätzliche Sicherheitsfaktoren gegen Täuschungsversuche
Die Deep-Fake-Attacken nutzen die Methoden des Social Engineering, versuchen also die sogenannte „Schwachstelle Mensch“ zu missbrauchen. Das bekannte Gesicht des Chefs, die vertraute Stimme der Vorgesetzten, sie sorgen dafür, dass das Misstrauen ausgeschaltet und der Gehorsam eingeschaltet werden. Gleichzeitig nutzt es das Vertrauen in Stimme und Aussehen als Sicherheitsfaktor aus.
ENISA hat sich ausführlich mit Online-Identitätsnachweisen und entsprechenden Angriffen befasst und erklärt: Eine Schlüssellösung kann multifaktorielle Sicherheit sein.
Wenn also scheinbar eine Führungskraft anruft oder in einem Video-Meeting dem Anschein nach neue Zugangsdaten wünscht, dann sollte dies nicht alleine auf Basis der „bekannten Stimme“ oder des „der Chefin gleichenden Aussehens“ ausgeführt werden.
Doch laut Specops Software, Anbieter von Passwortmanagement- und Authentifizierungslösungen, besitzen 48 Prozent der Unternehmen keine Richtlinie zur Benutzerverifizierung für eingehende Anrufe am IT-Service-Desk. Darüber hinaus ergab die Umfrage, dass 28 Prozent der Unternehmen, die über eine Richtlinie zur Benutzerverifizierung verfügen, aufgrund von Sicherheits- und Usabilityproblemen mit ihrer aktuellen Richtlinie unzufrieden sind.
Der Service Desk braucht eine geeignete Lösung für die Mehr-Faktor-Authentifizierung, und die gibt es bereits: Specops Secure Service Desk.
Mehr Schutz vor Manipulation und Täuschung: So hilft Specops Secure Service Desk
Specops Secure Service Desk erzwingt die Benutzerverifizierung am Service Desk und verhindert so den Erfolg der Social Engineers bei ihren Anfragen für ein Zurücksetzen von Passwörtern, selbst wenn sie dank Deep Fake wie die Geschäftsführerin oder der Geschäftsführer klingen oder aussehen.
Wenn jemand ein Passwort vergisst, muss sie oder er zuerst seine Identität über mindestens einen voreingestellten Faktor verifizieren, der mit dem Active Directory-Konto des Benutzers verbunden ist. Erst wenn der Benutzer oder die Benutzerin auf seiner Seite alle geforderten Verifizierungsmaßnahmen abgeschlossen hat, kann das Passwort zurückgesetzt werden. Zur Benutzerverifizierung können im Unternehmen vorhandene Authentifizierungslösungen wie Duo Security, Okta Verify, PingID, Symantec VIP und viele weitere Faktoren eingebunden und genutzt werden. Je nach Einstellung können auch mehrere Methoden zur Verifizierung gefordert werden, wenn es sich um entsprechend wichtige oder hochrangige Benutzeraccounts handelt.
Die Service-Desk-Agenten haben also erst dann die Möglichkeit, Benutzerkonten sicher zurückzusetzen oder zu entsperren, nachdem der Benutzer erfolgreich verifiziert wurde. Specops Secure Service Desk erzwingt somit die Benutzerauthentifizierung am Service Desk und protokolliert die Vorgänge bei dem Passwort-Reset, um sicherzustellen, dass Informationen und Kennwortzurücksetzungen nicht Benutzern angeboten werden, die nicht verifiziert wurden.
Dank Specops Secure Service Desk werden Versuche, den Service Desk mit Deep Fakes zu täuschen, zu einer Enttäuschung für die Internetkriminellen. Alleine die simulierte Stimme oder das nachgeahmte Aussehen in Videos reicht nicht, weitere Sicherheitsfaktoren, die verlangt, aber nicht erbracht werden, enttarnen den Angriffsversuch.
(ID:49050997)