Keynote zur ISX IT-Security Conference 2023 KI Hype & Realität – kommt bald die Terminator Ransomware?
Anbieter zum Thema
Derzeit überschlagen sich die Meldungen über immer bessere KI-Tools. Die Möglichkeiten scheinen grenzenlos und deshalb überrascht es nicht, dass auch Cyberkriminelle mit der neuen Generation von KI experimentieren und versuchen, diese für ihre eigenen Angriffe einzusetzen. ISX-Keynote-Sprecher Candid Wüest von Acronis wirft einen kritischen Blick auf den KI-Hype und zeigt, wo die realen Gefahren liegen.

Derzeit vergeht kaum eine Woche, in der nicht Dutzende von neuen KI-Tools veröffentlicht werden. Insbesondere generative KI und Konversations-Chatbots sind momentan sehr gefragt. Ausgelöst wurde dieser Trend durch ChatGPT im November 2022. Seitdem hat sich jedoch eine Menge verändert. Die Large Language Models (LLM), die hinter den KI-Modellen stehen, haben sich weiterentwickelt, zum Beispiel von GPT-3.5 zu GPT-4. Dies bedeutet, dass größere Mengen an Trainingsdaten genutzt werden und somit ein umfangreicheres und präziseres Wissen zu diversen Themen zur Verfügung steht. Aber auch die Interaktion wurde verbessert. Mittlerweile sind diese Systeme mit dem Internet verbunden. So kann BARD AI bereits in Echtzeit Webseiten abfragen oder ChatGPT über Plugins Hotels finden. Die Möglichkeiten nehmen stetig zu und es scheint, als ob die Fantasie die einzige Grenze ist.
Es sollte daher nicht überraschend sein, dass auch Cyberkriminelle mit der neuen Generation von KI experimentieren und versuchen, diese für ihre eigenen Angriffe einzusetzen. Schließlich verfolgen Cyberkriminelle generell das Ziel, ihren Profit zu maximieren. Hierzu können sie KI nutzen, um neue Angriffe zu erstellen, zu automatisieren, zu skalieren und durch aktives Lernen zu verbessern. Im folgenden werden wir die einzelnen Schritte analysieren und erläutern, was bereits Realität ist und inwiefern dies das Gleichgewicht mit den Verteidigern durcheinanderbringt. In diesem Beitrag konzentrieren wir uns hauptsächlich auf ChatGPT, aber andere KI-Modelle können ähnlich eingesetzt werden.
ChatGPT ist ein klassisches Large Language Model (LLM) und daher sehr leistungsstark und vielseitig in allem, was mit Sprachen zu tun hat. Deshalb waren Phishing-E-Mails eine der ersten Angriffsmethoden, die durch KI automatisiert wurden. Mit ein paar Stichworten kann ein LLM eine realistische Phishing-E-Mail erstellen, egal ob sie als Sicherheitsüberprüfung der Bank oder als fehlgeschlagene Paketzustellung getarnt ist. Die KI kann Hunderte von leicht variierenden Textbausteinen generieren, um eine klassische statische Erkennung zu erschweren. Zudem kann die KI den Text in viele Sprachen übersetzen und ihn so an lokale Gegebenheiten anpassen. Als Input können auch Daten von der Firmenwebsite oder von Social-Media-Konten verwendet werden, um die Phishing-E-Mails noch persönlicher zu gestalten. Bei klassischen CEO-Fraud- oder Business Email Compromise (BEC) Scams kann die KI sogar auf eventuelle Fragen antworten, was den Aufwand für den Angreifer stark reduziert. Durch Reinforced Learning kann die KI auch erkennen, welche Themen gut funktionieren und welche sie eher vermeiden sollte. Das Skript zum Versenden der E-Mails kann der Chatbot gleich selbst generieren. Allerdings benötigt man immer noch ein E-Mail-Konto zum Versenden und eine gehostete Phishing-Website. Dies lässt sich noch nicht vollständig automatisieren und kann daher immer noch gut erkannt werden. Darüber hinaus wird nun bereits KI eingesetzt, um zu erkennen, ob ein E-Mail-Text von KI verfasst wurde. Da jedoch ChatGPT & Co. auch für legitime E-Mails verwendet werden, ist dies kein eindeutiges Merkmal.
Natürlich haben die Firmen hinter den großen KI-Modellen, wie OpenAI für ChatGPT, gewisse Filter eingeführt, die es erschweren, bestimmte Inhalte zu erhalten. Wie immer hängt es jedoch davon ab, wie genau man fragt. Nun gibt es das klassische Katz-und-Maus Spiel, bei dem Benutzer versuchen, mit einer Aussage die KI dazu zu bringen, trotzdem alles zu beantworten - die sogenannten „Do Anything Now“ Prompts (DAN).
Die zweite Automatisierungswelle betrifft Malware und Payloads. KI-Modelle können Programmiercode in Sprachen wie Python, GoLang, Rust usw. erzeugen. Zwar blockieren auch hier die KI-Filter, wenn der Benutzer direkt nach einer Ransomware fragt, aber wenn man das Problem in kleinere Schritte zerlegt, können die Bausteine am Ende wieder zusammengefügt werden. So haben Cyberkriminelle bereits im Dezember 2022 einen Information Stealer erstellt, der laut Darkweb Posts relativ gut funktioniert hat. Die erstellte Malware ist jedoch generell nicht sehr komplex und in einigen Fällen kann der Code wegen Fehlern nicht einmal kompiliert werden. Hier zeigt sich, dass diese LLMs zwar auf das antrainierte Wissen aus dem Internet zurückgreifen, aber eben nicht selbst kreativ werden und neuen Code erfinden. Es erleichtert somit den Angreifern, selbst stundenlang im Internet zu suchen, aber die Qualität der Malware ist zum Glück noch nicht sehr ausgeklügelt. Deshalb ist es auch unwahrscheinlich, dass die großen APT-Gruppen bald auf diesen Zug aufspringen werden.
Natürlich werden sich die Modelle in der Zukunft weiter verbessern. Dies ermöglicht es dann auch, zum Beispiel sogenannte metamorphe Malware zu erstellen. Also Malwarecode, der bei jeder Infektion seine Gestalt komplett verändert und somit mit Antiviren-Signaturen fast nicht zu erkennen ist. Eine solche Malware könnte zum Beispiel aus einem PowerShell-Skript bestehen, das bei jeder Infektion ChatGPT nach einem neuen Source Code für sich fragt. Da selbst die Fragestellung des Auftrags, also welche Daten gestohlen oder verschlüsselt werden sollen, durch die KI variieren kann, wird so jedes Mal neuer Code erstellt. Eine solche Malware ist zwar für AV-Signaturen ein Problem, aber moderne AV- und EDR-Lösungen, die das Verhalten der Prozesse analysieren, können sie weiterhin leicht erkennen. Einer Anti-Ransomware-Heuristik ist es prinzipiell egal, ob der Code von einer KI oder einem Menschen geschrieben wurde, solange Dateien verschlüsselt werden, kann das Verhalten erkannt werden.
Dies sind nur zwei Bereiche. Die Möglichkeiten, mit denen die KI-Modelle Cyberkriminelle unterstützen können, wachsen stetig. So haben wir bereits gesehen, dass KI genutzt wird, um nach Schwachstellen in Programmcodes zu suchen und Exploit-Code zu erstellen.
Durch DeepFakes steigen nicht nur die Möglichkeiten für Desinformationskampagnen, sondern auch für Identitätsfälschungen, die für BEC-Scams (Business Email Compromise) oder Erpressungen leicht nutzbar sind. Die Angreifer können z.B. eine BEC-Attacke auf die Finanzabteilung ausführen, bei welcher ein Anruf mit der digital geklonten Stimme des CFOs eine Überweisung in Gang setzt. Die Chatbots können sogar dazu genutzt werden, Unternehmen mit Support-Anfragen zu überlasten und Ressourcen zu binden.
Und selbst die KI-Modelle selbst werden bereits angegriffen. Eine Analyse der Modelle kann den Angreifern unter Umständen Rückschlüsse darauf geben, wie ihre Malware nicht mehr blockiert wird. Oder ganze LLMs werden mit Backdoors ausgeliefert, die unter bestimmten Schlüsselwörtern bewusst falsche oder gefährliche Antworten zurückgeben, z.B. eine versteckte Backdoor bei Source Code Anfragen.
Dies zeigt, dass die neuen KI-Modelle wie ChatGPT für die Cyberkriminellen durchaus eine große Hilfe bei der Automatisierung darstellen. Allerdings sind wir zum Glück noch ein gutes Stück entfernt von einer autonomen, sich selbst anpassenden Terminator-Ransomware, die eigenständig neue Wege in ein Unternehmen findet. Prinzipiell senken die neuen KI-Modelle die Einstiegshürden und ermöglichen es somit mehr Personen, Angriffe durchzuführen. Die Angriffe sind jedoch im Allgemeinen nicht sehr ausgefeilt. Daraus ergibt sich zwar ein Anstieg des Angriffsvolumens, aber nicht der Angriffsmethoden, und diese Angriffe können mit den aktuellen Abwehrmethoden gut abgewehrt werden. Zusätzlich verbessern sich die Cyberprotection-Methoden natürlich auch mit den neuen KI-Modellen.
Es bleibt also weiterhin spannend in diesem Jahr, das wohl als das Jahr des KI-Durchbruchs in die Geschichtsbücher eingehen wird.
Über den Autor: Candid Wüest ist VP of Research bei Acronis, dem schweizerisch-singapurischen Unternehmen für Cyberprotection, wo er neue Bedrohungstrends und umfassende Schutzmethoden erforscht. Davor arbeitete er mehr als 16 Jahren als technischer Leiter für das globales Security-Response-Team von Symantec. Wüest ist ein häufiger Konferenzredner und hat verschiedene Zertifizierungen, Bücher und Patente. Candid Wüest ist Keynote Speaker auf allen drei Stationen der ISX IT-Security Conference 2023.
Über die ISX IT-Security Conference: Die ISX 2023 findet am 28. Juni in Hamburg, am 4. Juli in Mainz und am 6. Juli in München statt. Für Anwender ist die Teilnahme an der ISX kostenfrei. IT-Dienstleister nehmen mit dem Zugangscode ISX23-SEI zum reduzierten Preis von 75 Euro (inkl. MwSt.) teil.
(ID:49483940)