Wie künstliche Intelligenz die IT-Sicherheit revolutioniert KI – gut oder böse?
Anbieter zum Thema
Mehr als 6 Billionen Dollar betragen die Kosten durch Cyberkriminalität im Jahr 2021, so eine aktuelle Studie. Fast jede eingesetzte Technologie wird inzwischen permanent angegriffen – beispielweise durch Credential Stuffing. KI kann dies verhindern, indem sie Vorhersagen trifft und somit letztlich die Cybersicherheit automatisiert.

Im Zuge der COVID-19-Pandemie hat sich die Entwicklung zu Fernarbeit per Homeoffice deutlich beschleunigt – und damit auch der Trend zur Digitalisierung. Durch die zunehmende Abhängigkeit von Online-Anwendungen wird aber auch die Cyberkriminalität immer lukrativer. So hat der Online-Diebstahl bereits vor zehn Jahren physische Banküberfälle bei weitem übertroffen. Dabei waren laut einer aktuellen Verizon-Studie 86 Prozent aller Datenschutzverletzungen finanziell motiviert.
Jeder Nutzer ist in Gefahr
Obwohl Cyberkriminalität heute die häufigste Form der Kriminalität ist, glauben die meisten Menschen weiterhin, dass sie kein attraktives Ziel darstellen. Doch Cyberkriminelle haben heute jeden im Visier. Eine von der Herjavec-Gruppe gesponserte Studie schätzt, dass Cyberkriminalität weltweit bis 2021 jährlich über 6 Billionen US-Dollar an Kosten verursachen wird – gegenüber 3 Billionen Dollar im Jahr 2015.
So wird in Zukunft praktisch jede Technologie ständig angegriffen, wie das schon jetzt bei jeder größeren Website oder mobilen Anwendung der Fall ist. Während herkömmliche Kriminelle zum Beispiel in der realen Welt nicht an einem Tag bei jedem Haus einer Stadt einen Einbruchsversuch starten können, geschieht genau das online. Schon heute sind größere Banken und Einzelhändler täglich Millionen von Angriffen auf die Konten ihrer Kunden ausgesetzt. Ähnlich wie Google den größten Teil des Internets in wenigen Tagen durchsuchen kann, greifen Cyberkriminelle in dieser Zeit fast jede Website auf der Welt an.
Die aktuell häufigste Art von Web-Angriffen wird als Credential Stuffing bezeichnet. Dabei versuchen Cyberkriminelle, sich mit gestohlenen Passwörtern automatisch in jedes passende Konto auf anderen Websites einzuloggen. Diese Kontoübernahme gelingt häufig, weil viele Menschen gleiche Passwörter bei verschiedenen Websites einsetzen. Durch zahlreiche gigantische Datendiebstähle besitzen Cyberkriminelle inzwischen Milliarden von Benutzerpasswörtern. Und diese nutzen sie mit Hilfe von künstlicher Intelligenz für Angriffe.
KI – gut oder böse?
Grundsätzlich verwendet KI Daten für Vorhersagen und automatische Aktionen. Doch selbst KI, die für legitime Zwecke entwickelt wurde, lässt sich für Cyberkriminalität nutzen. Zum Beispiel soll CAPTCHA gegen unerwünschte Bots schützen, indem es eine Aufgabe stellt, die Menschen leicht und Bots schwer lösen können. Doch eine auf maschinelles Lernen basierende OCR-Technologie schaffte 99,8 Prozent der CAPTCHA-Aufgaben.
Cyberkriminelle können KI auch nutzen, um das Knacken von Passwörtern zu beschleunigen oder lohnende Angriffsziele zu erkennen. Mit Hilfe einer vollständig automatisierten Infrastruktur starten sie innerhalb weniger Minuten Angriffe mit Millionen von Transaktionen – und schalten sie wieder ab. Dabei verwenden sie dieselben DevOps-Techniken, die auch Unternehmen einsetzen. KI wird immer stärker für Attacken eingesetzt, um ihre Reichweite zu vergrößern und die Abwehr zu erschweren.
Schutz vor automatisierten Attacken
Wie können sich Unternehmen vor solchen automatisierten Angriffen schützen? Die einzig mögliche Antwort ist eine automatisierte Erkennung und Reaktion. Die Umstellung erfolgt in fünf Phasen:
Tabelle: Phasen der Cybersecurity-Automatisierung.
Derzeit befinden sich die meisten Unternehmen in Phase 1, aber Vorreiter bereits in Phase 3 oder 4. Künftig werden sie fast alle Phase 5 erreichen müssen. Um dorthin zu gelangen, ist jedoch eine neue Denkweise nötig. So haben viele Unternehmen mit umfangreichen Sicherheitsteams damit begonnen, auch Datenwissenschaftler einzustellen, um ihre eigene KI-Abwehr aufzubauen. Dies könnte ein vorübergehendes Phänomen sein: Während Unternehmensteams zur Betrugsbekämpfung schon seit mehr als einem Jahrzehnt maschinelles Lernen einsetzen, hat die traditionelle IT-Sicherheitsbranche nach anfänglichem Zögern erst in den letzten fünf Jahren damit begonnen. Der aktuelle Hype kann aber zu Übertreibungen führen.
Der Aufbau eines großen KI-Teams ist auch nicht immer die richtige Antwort. Reine Größe erreicht niemals die Wirksamkeit, Skalierung und Zuverlässigkeit, die zur Abwehr der sich ständig weiterentwickelnden cyberkriminellen Angriffe erforderlich sind. Stattdessen besteht die optimale Antwort in der Integration der genutzten Sicherheitsprodukte mit den Unternehmensdaten, um Mehrwert durch KI zu erreichen. Dann lassen sich auch die Security-Anbieter für falsch positive und falsch negative Ergebnisse sowie andere durch KI-Nutzung entstehende Probleme zur Verantwortung ziehen. Schließlich ist KI kein Allheilmittel – und sie muss effektiv sein.
Fazit
KI lässt sich für gute und böse Zwecke einsetzen. So sind cyberkriminelle Tools heute schon für 90 Prozent der Anmeldeversuche bei großen Einzelhandelsseiten verantwortlich. Doch die Security-Branche bewegt sich in die richtige Richtung, lernt schnell und versorgt bereits viele Unternehmen mit einer effektiven KI-basierten Abwehr. Bei Technologieentwicklung, Weiterbildung und Praxis-Einsatz bleibt aber weiterhin viel zu tun. Schließlich schreiten auch die Cyberkriminellen in diesen Bereichen ständig voran.
Über den Autor: Roman Borovits ist Senior Systems Engineer bei F5.
(ID:47115554)