Was künstliche Intelligenz für die Zukunft bringt KI und IT-Sicherheit – Partner oder Feinde?
Anbieter zum Thema
In diesem Beitrag möchten wir uns mit der Frage auseinandersetzen, was Künstliche Intelligenz (KI) für die IT-Security bedeutet. Stellt sie eine Unterstützung bei der Abwehr von Angriffen dar, oder erleichtert sie hauptsächlich Angreifern die Arbeit? Was kommt in Zukunft auf uns zu? Diese Fragen haben wir mit Vertretern des Fraunhofer Instituts, der Universität Erlangen-Nürnberg und der Universität Lübeck besprochen.

Unser erster Ansprechpartner für diesen Artikel war Prof. Dr. Martin Steinebach, Head of Media Security and IT Forensics beim Fraunhofer SIT im nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE. Er betonte zu Beginn unseres Gesprächs, dass KI im Multimedia-Bereich zum Absichern von Informationen eine große Rolle spielt. Beispielsweise zum Erkennen und Identifizieren von Deep Fakes und im Anwendungsfeld Text to Image. Nach seiner Aussage gewinnen zum Absichern der Daten jetzt Technologien wieder an Bedeutung, die schon viele Jahre alt sind und in der letzten Zeit keine besonders wichtige Rolle mehr gespielt haben, wie beispielsweise Wasserzeichen.
Sicherheit durch und für KI
Nach Aussage von Prof. Steinebach ist KI für bestimmte Anwendungsbereiche unverzichtbar. Dazu gehört unter anderem auch das Natural Language Processing. Die KI kann abgesehen davon auch dabei helfen, Desinformationen und Deep Fakes zu erkennen und KI-generierte Texte als solche zu kennzeichnen. „In diesem Bereich führt kein Weg an KI vorbei, schon wegen der schieren Masse der Texte“, so Prof. Steinebach. „Denken Sie an die EU-Chat-Kontrolle und die Hate-Speech-Analyse. Menschen sind gar nicht dazu in der Lage, so viel Content zu sichten. Die Vorsortierung – zum Beispiel beim automatischen Erkennen von Cyber-Grooming – muss die KI machen und am Ende können Menschen die wichtigsten Einträge analysieren und bestätigen. KI kommt in diesem Zusammenhang deutlich weiter, als alte Algorithmen, die die gleiche Aufgabe hatten.“
KI als Angreifer
KI kann nicht nur Malware und Phishing-Mails – zum Beispiel Texte, die die Anwender auffordern, ihre Passwörter zurückzusetzen - schreiben beziehungsweise übersetzen, sondern eignet sich auch zum Spear-Phishing. Dazu analysiert sie die Aussagen, das Verhalten und die Interessen der Opfer in sozialen Medien und schreibt dann eine passende Mail. Hat sich zum Beispiel ein Fan einer Band online bei einer passenden Fan-Vereinigung eingetragen, so könnte die KI das analysieren und eine Mail generieren, die ihn dazu bringt, sich auf einem Online-Portal zu registrieren und ein Fan-Foto hochzuladen, um einen Backstage-Pass für das nächste Konzert der Band in seiner Region zu bekommen. Nach der Registrierung erhält er dann natürlich keinen Backstage-Pass, sondern er gibt dabei lediglich weitere Daten über sich preis. Ein anderes Beispiel wäre jemand, der sich für Autos begeistert und durch das Versprechen ködern lässt, sich als einer der ersten 500 Nutzer eines neuen Reinigungsmittels für Autos zu registrieren, um dieses kostenlos zu erhalten. Solche Vorgehensweisen sind momentan aus der Praxis zwar noch nicht bekannt, werden aber wohl bald zum Alltag gehören. Geduldiges Beobachten und Analysieren wird durch KI zunehmend automatisiert und damit sinkt der Aufwand für potentielle Angreifer. Umgekehrt verwendet die Polizei KI, um auf die gleiche Weise Verbrecher zu analysieren und so Täterprofile zu erstellen.
Regeln können das genannte Vorgehen teilweise verhindern, zum Beispiel, indem die Verantwortlichen in einen Chatbot wie ChatGPT (Chat Generative Pre-trained Transformer) die Regel implementieren, bestimmte Nutzeranfragen abzulehnen. Auf diese Weise lassen sich aber nicht alle Angriffsszenarien abdecken. In diesem Zusammenhang muss man auch bedenken, dass es Open-Source-KI-Lösungen gibt, die immer besser werden und die ohne Regeln arbeiten.
KI als Verteidiger
Aufgrund des Fachkräftemangels spielt KI nach Aussage von Prof. Steinebach eine zentrale Rolle beim Automatisieren der IT-Sicherheit. Wegen des Wachstums bei der Cyber-Kriminalität und bei den Anwendungen gibt es dazu überhaupt keine Alternative. Es existieren einfach nicht genug Sicherheitsexperten, deshalb muss die KI diese Aufgabe mit übernehmen.
Außerdem werden automatisierte Angriffe so schnell, dass Menschen gar nicht rechtzeitig darauf reagieren können. Beispielsweise ist es denkbar, dass autonome, intelligente und skalierbare Bots schnelle Angriffe von verschiedenen Seiten aus durchführen. Solchen Attacken hätte kein Administrator etwas entgegenzusetzen. Das stellt momentan allerdings noch ein zukünftiges Problem dar.
Umfassende Tests mit realistischen Daten unabdingbar
Um im Security-Bereich sinnvoll arbeiten zu können, ist es wichtig, die KI umfassend zu testen und lernen zu lassen. Leider sind die Datenbeispiele zum Lernen und Testen oft nicht aktuell und realistisch. So wurde zum Beispiel ein IPS (Intrusion Protection System) mit bestimmten Verkehrsdaten getestet, die dafür zur Verfügung standen. Die Angriffserkennung im Test war anfangs großartig. Nach einiger Zeit stellte sich aber heraus, dass die Erkennung nur deshalb so gut war, weil die Angriffe im Testszenario nur an Tagen mit ungeraden Zahlen simuliert wurden. Die KI orientierte sich daraufhin ausschließlich am Timestamp und meinte, es reiche aus, auf das Datum zu sehen und den Traffic an ungeraden Tagen zu blocken. Als das Datum dann aus der Analyse ausgeschlossen wurde, ging die Erkennungsrate in den Keller.
Es gibt derzeit kaum realistische Daten, sondern nur veraltete Testdaten mit wenig Bezug zur Realität. Niemand stellt Daten aus dem eigenen Netz zur Verfügung, auch nicht Rohdaten. Dieses Problem gilt für viele Bereiche. In diesem Zusammenhang ist zu berücksichtigen, dass viele Daten gar nicht verwendet werden können, da die personenbezogenen Inhalte schützenswert sind.
Ansprüche an die Automatisierung unverändert
In unserem Gespräch mit PD Dr.-Ing. Christian Riess vom IT Security Infrastructures Lab / CS 1 der Universität Erlangen-Nürnberg wies uns Dr. Riess darauf hin, dass die Bewegungen und die Fortschritte im generativen Bereich derzeit drastisch sind. Die verfügbaren Demos wie ChatGPT und Midjourney beeindrucken sehr. Allerdings sollte man berücksichtigen, dass sich die Herausforderungen in Bezug auf die Automatisierung nicht wirklich geändert haben.
Was die Angriffsmöglichkeiten durch die KI angeht, so sieht Dr. Riess zwei unterschiedliche Bereiche, die von Interesse sind. Zunächst einmal ermöglicht die KI eine effektivere Durchsuchung von Code und macht so eine automatische Suche nach Schwachstellen, die man angreifen kann, möglich. Diese Vorgehensweise ist aber nicht neu, sondern wird durch KI lediglich effizienter.
Der zweite Bereich hängt mit dem Thema “Phishing” zusammen. Hier vertritt Dr. Riess eine ähnliche Meinung, wie Prof. Steinebach. Seiner Aussage nach lassen sich Phishing-Angriffe mit KI-Unterstützung besser durchführen. „Die KI kann beispielsweise automatisch Webseiten – beispielsweise Institutswebseiten – untersuchen, die zu bestimmten Personen gehören und Aufschluss über ihre Hobbies und Interessen geben“, so Dr. Riess. „Anschließend erstellt sie eine an die genannte Person angepasste Phishing-Mail, die zum Beispiel so gestaltet sein könnte, dass sie von einem Sportverein kommt, bei dem das potentielle Opfer Mitglied ist. Phishing-Mails werden also immer schwerer erkennbar, obwohl sich der Aufwand sie zu generieren für die Angreifer ständig reduziert.“ Auch diese Entwicklung gilt laut Dr. Riess nicht als neu, die Mail-Erstellung war aber in der Vergangenheit mit einem zu großen Aufwand verbunden, um im großen Stil zum Einsatz zu kommen. Dr. Riess wies in diesem Zusammenhang zudem darauf hin, dass die Sprache beim Phishing immer im Vordergrund steht. Phishing-Mails mit fehlerhafter Sprache sind leicht identifizierbar, wenn aber jeder durch eine KI-Übersetzung in die Lage versetzt wird, eine Mail in gutem Deutsch zu produzieren, gewinnt die Gefährlichkeit der Angriffe eine neue Qualität.
KI als Verteidigungsschirm
Soll KI als Unterstützung bei der Verteidigung von IT-Umgebungen gegen Angriffe zum Einsatz kommen, so muss man sich laut Dr. Riess darüber klar werden, dass diese Tätigkeit deutlich komplizierter ist, als das Automatisieren von Angriffen. Angreifer müssen schließlich nur eine Schwachstelle suchen und finden, um diese anschließend auszunutzen. Das Sicherheitspersonal in den Organisationen kommt im Gegensatz dazu nicht darum herum, alles abzudichten, was existiert. Das führt zu einer Asymmetrie. Die KI kann den Menschen bei der Absicherung helfen, es gilt aber die schon von Bruce Schneier formulierte Regel “Computer können das Eine besser, Menschen das Andere”.
Große generative Modelle kommen beispielsweise bei der Verteidigung zum Einsatz, wenn es darum geht, die Supply-Chain gegen Produkte mit integrierten Hintertüren, beispielsweise aus Asien, zu härten. Überprüfungen der Supply-Chain sind ja wegen der ganzen Unterlieferanten sehr aufwendig. Eine KI geht dieses Problem an, indem sie eine Reihung erstellt, die festlegt, was zuerst zu prüfen ist. Hat zum Beispiel eine Abteilung oder ein Lieferant besonders viel Kontakt zu Lieferanten in potentiell feindlichen Staaten, so könnte es sinnvoll sein, diese zuerst unter die Lupe zu nehmen. In einem solchen Szenario würde also die KI die Liste erstellen und Menschen führen anschließend die eigentlichen Überprüfungen durch.
KI kann auch beim Schützen kritischer Infrastrukturen helfen. Darüber hinaus spielt sie ihre Stärken bei klassischen Machine-Learning-Anwendungen wie Malware-Erkennung oder auch Intrusion-Detection und -Protection aus. In diesem Bereich hat sich in den letzten zehn Jahren aber nicht viel geändert.
Perspektiven der KI in der IT-Sicherheit
Was die zukünftigen Perspektiven betrifft, die sich aus dem Thema “KI und IT-Sicherheit” ergeben, so ist Dr. Riess der Ansicht, dass die Menschen erst jetzt – durch das Auftauchen von neuen Werkzeugen und von Demonstrationen auf Youtube und ähnlichen Seiten – erkennen, was sich mit KI alles anstellen lässt. So besteht beispielsweise die Option, einem Textgenerator wie ChatGPT die Anweisung zu geben, einen Prompt für Midjourney zu erstellen, der ganz genaue Parameter enthält und deswegen auch ein erstklassiges Bild erzeugt. Überträgt man dieses Beispiel auf andere Bereiche, so ergibt sich ein vollkommen neuer Modellierungsraum. Die Möglichkeiten, die sich daraus ergeben, liegen noch im Unklaren und Voraussagen gestalten sich deswegen schwierig. Man sollte aber bedenken, dass in diesem Bereich nicht nur Spezialisten tätig sind, sondern auch kreative Hobbyisten, die keine Forschung betreiben, die Werkzeuge aber innovativ verwenden. Deswegen ist vollkommen unklar, was dabei letztendlich herauskommt.
Momentan sind die jüngsten Modelle gut darin, große Eingaben zu verdichten und umzuschreiben beziehungsweise zu übersetzen, um so neue, effektivere Ausgaben zu erhalten. Wenn große KI-Modelle dann noch Daten aus mehreren Quellen zusammenführen, so ergeben sich neue Erkenntnisse.
Das PeT-HMR-Projekt
Konkret wurde es in unserem Gespräch mit Nils Loose vom Institut für IT Sicherheit der Universität Lübeck. An diesem Institut ist das PeT-HMR-Projekt beheimatet, das sich – zusammen mit Partnern aus der Industrie – das Ziel gesetzt hat, Penetrationstests durch die Verwendung von KI zu automatisieren. Am Ende der Entwicklung steht ein System, das kosteneffiziente und weit verbreitete Tests möglich macht. Diese sollen sich ständig verbessern und eigenständig neue Schwachstellen integrieren. Das System lernt im Betrieb ununterbrochen neue Angriffsmuster kennen und führt dann automatisierte Angriffe durch. Auf diese Weise könnten Schwachstellen präzise und effizient identifiziert werden, um sie mit einem minimalen Aufwand von Seiten der Experten vor potentiellen Angreifern zu entdecken.
Herr Loose vertritt die Ansicht, dass sich Penetrationstests gleichermaßen von Angreifern wie von IT-Abteilungen nutzen lassen. Dabei können sowohl generative Modelle wie ChatGPT und Sprachmodelle wie LLAMA, als auch spezielle Werkzeuge wie BurpGPT, das die Burp Suite um LLMs erweitert oder das ChatGTP-gepowerte Penetrationstestwerkzeug PentestGPT zum Einsatz kommen. Im Betrieb wird der Netzwerkverkehr, der vom Zielsystem zurückkommt, an das jeweilige Language-Modell übergeben und dieses gibt dann Tipps, die dabei helfen, einen Angriff aufzubauen oder die Verteidigung zu verbessern.
Bleiben wir bei der Verteidigung: In diesem Bereich kann die KI zunächst einmal bei der Klassifizierung von Malware oder auch von HTTP-Requests helfen. Dabei kommt eine Runtime-Erkennung zum Einsatz. Diese untersucht, ob es sich bei der gerade analysierten Aktion um einen Angriff handelt, oder nicht. Das System reagiert dann mit Alarmmeldungen auf potentielle Angriffe und neuartige Angriffsmuster. Zukünftig könnte es auch möglich sein, dass es direkt und schnell aktiv wird und beispielsweise die Firewall-Regeln anpasst.
Angreifer, die KIs, die zum Erkennen von Malware Verwendung finden, überlisten wollen, können das allerdings tun. Sie müssen dazu eine angepasste Malware verbreiten, bei der einige Bits geflippt sind. In diesem Fall kommt es zu einer falschen Klassifizierung. Die Bestimmung, welche Bits geflippt werden können und sollen ist dabei allerdings nicht trivial.
Ein anderer Weg, bei dem KI den Sicherheitsspezialisten helfen kann, ist die Code-Analyse. Dabei nimmt die KI Programm-Code unter die Lupe, um Schwachstellen ausfindig zu machen. In der Praxis zeigt sich, dass die Large-Language-Modelle das gut können.
„Ein anderes, derzeit aktuelles Beispiel ist GraphCodeBERT“, erklärt Herr Loose. „Hier gibt es keine Texte als Eingaben, wie bei generativen Netzen, sondern Graph-Strukturen. Geben die Anwender diese ein, so kann die KI darin ebenfalls Schwachstellen erkennen. Die Erkenntnisse der Analyse lassen sich dann automatisiert an Penetrationstester, die auch Netze sein können, weitergeben.“
Im Idealfall sind all diese Vorgehensweisen kombinierbar. Die Runtime-Detection erkennt Angriffe und generalisiert beziehungsweise abstrahiert sie. Die Informationen werden dann an automatische Penetrationstests weitergegeben und diese geben ihre Erkenntnisse zurück. So lernen die Detection Engine und der Penetrationstests immer weiter voneinander und interagieren in einem Zyklus. Kommt noch ein Honeypot hinzu, so kann dieser von den „Nutzern“ des Honypots Malicious Payloads bereitstellen, die das System mit neuen Angriffsmustern füttern und so dabei helfen, es noch besser zu machen.
Fazit
Die aktuellen Entwicklungen im Bereich der KI sorgen für viel Bewegung. Was letztendlich alles daraus entsteht, ist noch nicht absehbar. Es wird auf jeden Fall noch viel passieren, sowohl in positiver als auch in negativer Hinsicht.
(ID:49691674)