Künstliche Intelligenz und Cyberkriminalität KI in den Händen von Cyberkriminellen
Das Wettrüsten in der IT-Sicherheit findet schon seit vielen Jahren statt. Doch mit dem Aufkommen von KI und maschinellem Lernen steht mehr auf dem Spiel als jemals zuvor. Denn es besteht die Gefahr, dass Cyberkriminelle künstliche Intelligenz (KI) und maschinelles Lernen (ML) für ihre Zwecke nutzen, bevor Hersteller von Sicherheitslösungen ein Gegenmittel gefunden haben.
Anbieter zum Thema

IT-Sicherheit stellte sich in den vergangenen 20 Jahren vor allem als Wettlauf zwischen Angreifern und Verteidigern um die größten Innovationen dar – bisher ohne klaren Sieger. Doch das könnte sich jetzt ändern: Künstliche Intelligenz (KI) und maschinelles Lernen (ML) könnten das Zünglein an der Waage sein und Angreifern einen entscheidenden Vorteil verschaffen. Dies mag zunächst überraschen: Aktuell nutzen vor allem Hersteller von Sicherheits-Software diese neuen Technologien, um Malware zu erkennen und bösartiges Verhalten zu identifizieren. Doch auf der anderen Seite könnten diese Technologien auch Angreifern zahlreiche neue Möglichkeiten eröffnen, um bisherige Verteidigungsmethoden zu umgehen und noch ausgeklügeltere Angriffe durchzuführen.
Spear-Phishing im großen Stil
Beispielsweise waren zielgerichtete Angriffe bisher ihrem Wesen nach auf wenige, meist hochrangige Nutzer in Unternehmen beschränkt. Schließlich benötigt ein Angreifer stets eine gewisse Zeit, um Informationen zu sammeln und zu verstehen, wie sein Ziel arbeitet und auf welche Links es wahrscheinlich klicken wird. Zusammen mit anderen Werkzeugen bieten KI und maschinelles Lernen die Möglichkeit, diesen Lernprozess zu beschleunigen und zu skalieren.
Beispielsweise könnten Tools entwickelt werden, die massenhaft Daten aus Xing, LinkedIn oder anderen Quellen sammeln, Predictive Analytics durchführen und dann ausgedehnte Spear-Phishing-Kampagnen fahren, wobei jede Zielperson eine auf sie zugeschnittene E-Mail erhält. Trend Micro nutzt aktuell KI in seinem Feature „Writing Style DNA“, um den Schreibstil von Nutzern in E-Mails zu erkennen und damit Business-E-Mail-Compromise-Angriffe zu verhindern. Die gleiche Art von KI-Technologie könnte jedoch theoretisch auch von Cyberkriminellen dazu missbraucht werden, einzelne Nutzer besser nachzuahmen und dadurch die Zielperson dazu zu bewegen, auf Phishing-Links zu klicken.
Hacker könnten sogar Daten zum Browsing-Verhalten auswerten, um die individuellen Online-Gewohnheiten vorherzusagen. Dann könnten sie Malware oder Phishing-Mails zum idealen Zeitpunkt verschicken. Weiß ein Angreifer beispielsweise, dass ein Nutzer immer in der Mittagspause bestimmte Online-Shops nutzt, könnte er diesem pünktlich um 11:50 Uhr eine Phishing-Mail mit einem vermeintlichen Rabatt-Link für eine dieser Seiten zusenden.
Sich vor derart ausgefeilten Angriffen zu verteidigen stellt einen wahren Albtraum dar – sowohl technologisch als auch hinsichtlich der Schulung von Mitarbeitern.
Angriffe unter dem Radar
Künstliche Intelligenz ist in der Lage, Verhalten zu beobachten und Muster zu erkennen, die für Menschen nicht sichtbar sind. Diese Technologie würde es Hackern auch erleichtern, Daten zu stehlen ohne dabei von modernen Sicherheitstechnologien entdeckt zu werden. Aktuell suchen die Sicherheitslösungen vieler Hersteller nach verschiedenen Arten ungewöhnlichen Verhaltens, die auf eine Bedrohung hindeuten können. Doch was wäre, wenn Angreifer ihre Aktivitäten so tarnen könnten, dass sie gar nicht mehr ungewöhnlich wirken? Dann käme die Verteidigung der Suche nach der sprichwörtlichen Nadel im Heuhaufen gleich.
Die Beobachtung von Datenströmen aus einem Unternehmen könnte den perfekten Zeitpunkt verraten, um eine große Menge gestohlener Daten aus dem Netzwerk zu übertragen. Und basierend auf der analysebasierten Vorhersage, wann das nächste Windows-Update durchgeführt wird, könnte die ideale Gelegenheit gefunden werden, um System-Downtime zu nutzen und Malware zu installieren oder sich lateral innerhalb eines Netzwerkes zu bewegen. Kurzgefasst: Wenn sich moderne Cyber-Security darum dreht, Anomalien zu erkennen – was tun, wenn es keine Anomalien mehr gibt?
Glücklicherweise sind wir im Moment technologisch noch nicht so weit. Es gibt zwar bereits Cloud-basierte Dienste, die Cyberkriminellen zu einem relativ geringen Preis skalierbaren Speicherplatz und Rechenleistung zur Verfügung stellen. Und es gibt für sie auch schon Predictive-Analytics-Kapazitäten. Doch aktuell haben sie noch Probleme damit, die großen Datenmengen, die für solche Modelle benötigt werden, aus dem Inneren von Zielunternehmen zu bekommen. Wenn es hingegen um externe Quellen wie soziale Netzwerke geht, herrscht schon jetzt absolut kein Mangel.
Eins und eins zusammenzählen
Sobald es den Black Hats jedoch gelingen sollte, diese Technologielücken zu schließen, ist die weitere Entwicklung absehbar. Bösartige AI-Tools werden früher oder später unausweichlich in „as-a-Service“-Angeboten im cyberkriminellen Untergrund zu finden sein. Dort werden sie dann massenhaft für Jedermann verfügbar sein, so wie vor ihnen Ransomware, Exploit Kits und Banking-Trojaner. Zukünftig könnte KI sogar dazu genutzt werden, um Bild- und Tonaufnahmen von Entscheidungsträgern in Wirtschaft oder Politik zu manipulieren. Dies eröffnet ganz neue Möglichkeiten: Ein BEC-artiger Angriff könnte dann nicht mehr per E-Mail stattfinden sondern durch einen FaceTime-Anruf des vermeintlichen CEOs, der die Finanzabteilung „persönlich“ anweist, Geld zu überweisen. Denkbar sind auch manipulierte, massiv rufschädigende Videos von Politikern, die nur wenige Stunden vor Wahlen auftauchen.
Das Wettrüsten in der IT-Sicherheit findet schon seit vielen Jahren statt. Doch mit dem Aufkommen von KI und ML steht mehr auf dem Spiel als jemals zuvor. Für Hersteller von Sicherheitslösungen bleibt damit nur die Möglichkeit, sich in der Bedrohungsforschung möglichst breit aufzustellen und technologisch niemals stehen zu bleiben.
Über den Autor: Richard Werner ist Business Consultant bei Trend Micro.
(ID:45426250)