Künstliche Intelligenz und Cyberkriminalität

KI in den Händen von Cyberkriminellen

| Autor / Redakteur: Richard Werner / Peter Schmitz

Die Gefahr besteht, dass Hacker künstliche Intelligenz dazu nutzen Daten zu stehlen, ohne dabei von modernen Sicherheitstechnologien entdeckt zu werden.
Die Gefahr besteht, dass Hacker künstliche Intelligenz dazu nutzen Daten zu stehlen, ohne dabei von modernen Sicherheitstechnologien entdeckt zu werden. (Bild: Pixabay / CC0)

Das Wettrüsten in der IT-Sicherheit findet schon seit vielen Jahren statt. Doch mit dem Auf­kom­men von KI und maschinellem Lernen steht mehr auf dem Spiel als jemals zuvor. Denn es besteht die Gefahr, dass Cyber­krimi­nelle künstliche Intelligenz (KI) und maschi­nelles Lernen (ML) für ihre Zwecke nutzen, bevor Hersteller von Sicherheitslösungen ein Gegenmittel gefunden haben.

IT-Sicherheit stellte sich in den vergangenen 20 Jahren vor allem als Wettlauf zwischen Angreifern und Verteidigern um die größten Innovationen dar – bisher ohne klaren Sieger. Doch das könnte sich jetzt ändern: Künstliche Intelligenz (KI) und maschinelles Lernen (ML) könnten das Zünglein an der Waage sein und Angreifern einen entscheidenden Vorteil verschaffen. Dies mag zunächst überraschen: Aktuell nutzen vor allem Hersteller von Sicherheits-Software diese neuen Technologien, um Malware zu erkennen und bösartiges Verhalten zu identifizieren. Doch auf der anderen Seite könnten diese Technologien auch Angreifern zahlreiche neue Möglichkeiten eröffnen, um bisherige Verteidigungsmethoden zu umgehen und noch ausgeklügeltere Angriffe durchzuführen.

Spear-Phishing im großen Stil

Beispielsweise waren zielgerichtete Angriffe bisher ihrem Wesen nach auf wenige, meist hochrangige Nutzer in Unternehmen beschränkt. Schließlich benötigt ein Angreifer stets eine gewisse Zeit, um Informationen zu sammeln und zu verstehen, wie sein Ziel arbeitet und auf welche Links es wahrscheinlich klicken wird. Zusammen mit anderen Werkzeugen bieten KI und maschinelles Lernen die Möglichkeit, diesen Lernprozess zu beschleunigen und zu skalieren.

Beispielsweise könnten Tools entwickelt werden, die massenhaft Daten aus Xing, LinkedIn oder anderen Quellen sammeln, Predictive Analytics durchführen und dann ausgedehnte Spear-Phishing-Kampagnen fahren, wobei jede Zielperson eine auf sie zugeschnittene E-Mail erhält. Trend Micro nutzt aktuell KI in seinem Feature „Writing Style DNA“, um den Schreibstil von Nutzern in E-Mails zu erkennen und damit Business-E-Mail-Compromise-Angriffe zu verhindern. Die gleiche Art von KI-Technologie könnte jedoch theoretisch auch von Cyberkriminellen dazu missbraucht werden, einzelne Nutzer besser nachzuahmen und dadurch die Zielperson dazu zu bewegen, auf Phishing-Links zu klicken.

Hacker könnten sogar Daten zum Browsing-Verhalten auswerten, um die individuellen Online-Gewohnheiten vorherzusagen. Dann könnten sie Malware oder Phishing-Mails zum idealen Zeitpunkt verschicken. Weiß ein Angreifer beispielsweise, dass ein Nutzer immer in der Mittagspause bestimmte Online-Shops nutzt, könnte er diesem pünktlich um 11:50 Uhr eine Phishing-Mail mit einem vermeintlichen Rabatt-Link für eine dieser Seiten zusenden.

Sich vor derart ausgefeilten Angriffen zu verteidigen stellt einen wahren Albtraum dar – sowohl technologisch als auch hinsichtlich der Schulung von Mitarbeitern.

Angriffe unter dem Radar

Künstliche Intelligenz ist in der Lage, Verhalten zu beobachten und Muster zu erkennen, die für Menschen nicht sichtbar sind. Diese Technologie würde es Hackern auch erleichtern, Daten zu stehlen ohne dabei von modernen Sicherheitstechnologien entdeckt zu werden. Aktuell suchen die Sicherheitslösungen vieler Hersteller nach verschiedenen Arten ungewöhnlichen Verhaltens, die auf eine Bedrohung hindeuten können. Doch was wäre, wenn Angreifer ihre Aktivitäten so tarnen könnten, dass sie gar nicht mehr ungewöhnlich wirken? Dann käme die Verteidigung der Suche nach der sprichwörtlichen Nadel im Heuhaufen gleich.

Die Beobachtung von Datenströmen aus einem Unternehmen könnte den perfekten Zeitpunkt verraten, um eine große Menge gestohlener Daten aus dem Netzwerk zu übertragen. Und basierend auf der analysebasierten Vorhersage, wann das nächste Windows-Update durchgeführt wird, könnte die ideale Gelegenheit gefunden werden, um System-Downtime zu nutzen und Malware zu installieren oder sich lateral innerhalb eines Netzwerkes zu bewegen. Kurzgefasst: Wenn sich moderne Cyber-Security darum dreht, Anomalien zu erkennen – was tun, wenn es keine Anomalien mehr gibt?

Glücklicherweise sind wir im Moment technologisch noch nicht so weit. Es gibt zwar bereits Cloud-basierte Dienste, die Cyberkriminellen zu einem relativ geringen Preis skalierbaren Speicherplatz und Rechenleistung zur Verfügung stellen. Und es gibt für sie auch schon Predictive-Analytics-Kapazitäten. Doch aktuell haben sie noch Probleme damit, die großen Datenmengen, die für solche Modelle benötigt werden, aus dem Inneren von Zielunternehmen zu bekommen. Wenn es hingegen um externe Quellen wie soziale Netzwerke geht, herrscht schon jetzt absolut kein Mangel.

Eins und eins zusammenzählen

Sobald es den Black Hats jedoch gelingen sollte, diese Technologielücken zu schließen, ist die weitere Entwicklung absehbar. Bösartige AI-Tools werden früher oder später unausweichlich in „as-a-Service“-Angeboten im cyberkriminellen Untergrund zu finden sein. Dort werden sie dann massenhaft für Jedermann verfügbar sein, so wie vor ihnen Ransomware, Exploit Kits und Banking-Trojaner. Zukünftig könnte KI sogar dazu genutzt werden, um Bild- und Tonaufnahmen von Entscheidungsträgern in Wirtschaft oder Politik zu manipulieren. Dies eröffnet ganz neue Möglichkeiten: Ein BEC-artiger Angriff könnte dann nicht mehr per E-Mail stattfinden sondern durch einen FaceTime-Anruf des vermeintlichen CEOs, der die Finanzabteilung „persönlich“ anweist, Geld zu überweisen. Denkbar sind auch manipulierte, massiv rufschädigende Videos von Politikern, die nur wenige Stunden vor Wahlen auftauchen.

Das Wettrüsten in der IT-Sicherheit findet schon seit vielen Jahren statt. Doch mit dem Aufkommen von KI und ML steht mehr auf dem Spiel als jemals zuvor. Für Hersteller von Sicherheitslösungen bleibt damit nur die Möglichkeit, sich in der Bedrohungsforschung möglichst breit aufzustellen und technologisch niemals stehen zu bleiben.

Über den Autor: Richard Werner ist Business Consultant bei Trend Micro.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45426250 / Monitoring und KI)