KI-basierte Angriffe So schützen sich Unternehmen mit KI gegen KI

Ein Gastbeitrag von Max Heinemeyer 5 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz erweitert und verbessert Cyberangriffe, vor allem durch Automatisierung und Deepfakes. Unternehmen benötigen daher die gleichen Mittel wie ihre Gegner, um sich zu schützen. Dabei sollten KI-basierte Sicherheitslösungen nicht statisch sein, sondern sich kontinuierlich an die sich verändernden Bedrohungen anpassen.

Aufgrund der neuen Ära KI-basierter Angriffe müssen Unternehmen ebenfalls Künstliche Intelligenz nutzen, um sich davor zu schützen.(Bild:  sabida - stock.adobe.com)
Aufgrund der neuen Ära KI-basierter Angriffe müssen Unternehmen ebenfalls Künstliche Intelligenz nutzen, um sich davor zu schützen.
(Bild: sabida - stock.adobe.com)

Mit zunehmender Digitalisierung steigen auch die Anzahl, Intensität und Raffinesse der Cyberangriffe. So waren bereits 72 Prozent der deutschen Unternehmen laut einer Bitkom-Studie 2023 Opfer von Cyberattacken. Google verzeichnete im Oktober den bislang größten DDoS-Angriff aller Zeiten mit 398 Millionen Anfragen pro Sekunde. Laut einer Studie von Darktrace ist die Zahl „neuartiger Social-Engineering-Angriffe“ von Januar bis Februar 2023 um 135 Prozent gestiegen. Damit gemeint sind E-Mail-Angriffe, die sich sprachlich stark von herkömmlichen Phishing-E-Mails unterscheiden. Der Zeitraum entspricht der erstmals weit verbreiteten Nutzung von ChatGPT. Dies deutet darauf hin, dass der Einsatz generativer KI-Tools Angreifern die Möglichkeit bietet, schnell und in großem Umfang ausgefeiltere und gezieltere Angriffe durchzuführen.

Aktuelle KI-Lösungen werden die Gefahr noch weiter erhöhen. So steigt die Anzahl der Angriffe, da die Einstiegshürden für Cyberkriminelle immer niedriger werden. Diese brauchen heute kein IT-Spezialwissen mehr, da sie dank natürlicher Spracheingabe und vorgefertigten Hacker-Tools mit wenig Grundwissen schon moderne Angriffstechniken nutzen können. Selbst Script-Kiddies werden mit Hilfe von KI zu gefährlichen Gegnern. Die Intensität der Attacken steigt aufgrund der immer weitergehenden Automatisierung. Und auch die Raffinesse nimmt zu. Zum Beispiel können KI-Tools schon heute täuschend echt aussehende Phishing-Mails schreiben, Telefonate und Videos von ChefIn oder KollegInnen fälschen sowie Schadcodes selbstständig variieren. Selbst IT-ExpertInnen können somit kaum noch zwischen Echt und Falsch unterscheiden.

Große Gefahr steht bevor

Unternehmen sollten bei aller Gefahr heute noch nicht in Panik geraten. Zwar ist das Thema Künstliche Intelligenz mit dem Aufkommen von generativen KI-Systemen wie ChatGPT und Google Bard in der öffentlichen Wahrnehmung angekommen. Doch ihre Nutzung durch Cyberkriminelle steckt derzeit noch in den Kinderschuhen. Aktuell probieren sie die Tools eher aus und testen, was möglich ist – oder auch nicht. Allerdings ist davon auszugehen, dass mit den schnell fortschreitenden Fähigkeiten von generativen KI-Tools Angreifer schon bald deutlich stärkere Werkzeuge erhalten. Diese Entwicklung zeichnet sich bereits ab.

Zwischen Mai und Juli dieses Jahres hat das Cyber AI Research Centre von Darktrace beobachtet, dass mehrstufige Payload-Angriffe bei den Kunden um durchschnittlich 59 Prozent zugenommen haben. Dabei fordert eine Spam-Mail den Empfänger auf, eine Reihe von Schritten zu befolgen, bevor Malware installiert oder versucht wird, sensible Informationen abzugreifen. Im Juli gab es fast 50.000 solcher Angriffe mehr als im Mai. Dies deutet auf den Einsatz von Automatisierung hin.

Im gleichen Zeitraum stellte das Unternehmen Veränderungen bei Angriffen mit personalisierten Mails fest. Einerseits ging die Anzahl der Phishing-Mails, die angeblich von leitenden Angestellten kommen, um 11 Prozent zurück. Andererseits stiegen die Versuche, E-Mail-Konten zu übernehmen, um 52 Prozent und die Imitation des internen IT-Teams um 19 Prozent. Angreifer scheinen damit ihre Taktik auf IT-Teams zu verlagern, da sich Mitarbeitende immer besser auf die Nachahmung von Führungskräften eingestellt haben. Generative KI und ihr Potenzial für Deepfakes dürfte diese Entwicklung aber wieder verändern. Denn realistische Stimm- und Videofälschungen können Mitarbeitende leichter täuschen.

Mögliche Schutzmaßnahmen

Aufgrund der neuen Ära KI-basierter Angriffe müssen Unternehmen ebenfalls Künstliche Intelligenz nutzen, um sich davor zu schützen. Denn herkömmliche Security-Tools und menschliche ExpertInnen werden mit der Menge und Raffinesse der Attacken schnell überfordert sein. Entsprechend benötigen sie eine vollständig KI-basierte Technologieplattform.

Die meisten aktuellen KI-Systeme werden regelmäßig in Offline-Umgebungen mit riesigen Mengen an kombinierten historischen Daten trainiert. Nach einigen Tagen oder Wochen entsteht ein statisches KI-Modell, das in Betrieb genommen wird, bis die nächste Version fertig ist. Dieses Vorgehen eignet sich für Aufgaben wie die Erstellung von Bildern oder die Überprüfung bekannter Angriffsmuster. Die KI lernt aber nicht im laufenden Betrieb dazu und passt sich auch nicht selbstständig an.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ein alternativer Ansatz ist die Installation einer KI-Plattform in der Umgebung des Kunden, die autonom die normalen Verhaltensmuster erlernt. Damit entwickelt sich eine KI-Sicherheitslösung, die für jedes Unternehmen einzigartig und individuell an die spezifische Situation angepasst ist. Sie lernt in Echtzeit aus allen Prozessen und Vorgängen, einschließlich E-Mails, Cloud-Umgebungen, Produktions- und Betriebssystemen sowie physischen Standorten. Anschließend kann sie Abweichungen von diesen normalen Abläufen sofort erkennen und an die Zuständigen melden – oder je nach Konfiguration automatisch abwehren.

In der Praxis bewährt

Eine solche Plattform konnte bereits zahlreiche Angriffe erfolgreich erkennen und abwehren, welche die meisten herkömmlichen Security-Tools übersehen haben. Dazu gehören Log4J, Angriffe auf SolarWinds, neue Phishing-Mails während der Covid-19-Pandemie, Zero-Days wie die Attacke auf Citrix Netscaler, WannaCry oder APT35.

Eine solche Plattform bietet:

  • Eine breite Palette selbstlernender KI-Modelle, um neue Informationen zu verstehen und zu entscheiden, ob eine Abweichung vom Normalen verdächtig ist
  • Bayessche probabilistische Methoden für eine effiziente Aktualisierung und Kontrolle der Modelle in Echtzeit
  • Generative und angewandte KI zur Durchführung von simulierten Phishing-Kampagnen, Tabletop-Übungen und realistischen Drills
  • Tiefe neuronale Netze, die den Denkprozess des Menschen nachbilden
  • Die Graphentheorie zum Verständnis der komplexen Beziehungen zwischen Menschen, Systemen, Organisationen und Lieferketten
  • Offensive KI-Techniken wie Generative Adversarial Networks (GANs), um die Fähigkeit zur Abwehr von KI-gesteuerten Angriffen zu testen und zu verbessern
  • Die Verarbeitung natürlicher Sprache und große Sprachmodelle zur Interpretation der Eingaben und Erstellung von sofort verwertbaren Ergebnissen

Eine solche KI-Plattform, die in einem Unternehmen installiert und auf die Daten der Kunden ausgerichtet ist, kann einen Schutz bieten, der immer aktiv ist, ständig lernt sowie Ungewöhnliches, Verdächtiges und Neuartiges erkennt und abwehrt. Zudem bringt sie zahlreiche Vorteile in Bezug auf Datenschutz, Transparenz und Datenübertragungskosten.

Fazit

Die Geschwindigkeit und Raffinesse der Bedrohungen steigen durch den Einsatz von KI deutlich. So können KI-basierte Sicherheitslösungen, die wochenlang trainiert werden müssen, keinen zuverlässigen Schutz bieten. Denn es gibt ständig neue Angriffstechniken und bestehende werden immer weiter variiert und personalisiert. Mit generativen KI-Tools sind automatisierte Deepfakes ebenso möglich wie sich selbst entwickelnder Code, der alle herkömmlichen Abwehrmechanismen umgeht. So kann nur eine beim Unternehmen installierte KI-Plattform, die in Echtzeit selbstständig dazulernt und jede Form von Abweichung erkennt, vor diesen neuartigen Gefahren schützen.

Über den Autor: Max Heinemeyer ist Chief Product Officer von Darktrace und Cyber­sicherheits­experte mit mehr als zehn Jahren Erfahrung in Bereichen wie Pen-Testing, Red-Teaming, SIEM- und SOC-Beratung sowie der Jagd auf APT-Gruppen. Bei Darktrace ist er für das globale Threat Hunting zuständig und leitet die Forschung zu neuen KI-Anwendungen in der Cybersicherheit. Max Heinemeyer war in der Vergangenheit aktives Mitglied im Chaos Computer Club.

(ID:49891953)