KI boomt – doch sie ist leider auch verwundbar. Die Technologie sieht sich immer kreativeren Angriffsarten und -methoden von Cyberkriminellen ausgeliefert. Höchste Zeit, dass Unternehmen effektive Schutzmaßnahmen entwickeln, ansonsten drohen hohe wirtschaftliche Verluste.
Immer mehr deutsche Unternehmen nutzen generative KI-Systeme. Umso wichtiger ist es daher, ihre Schwachstellen zu erkennen, sie zu analysieren und sie mit wirksamen Maßnahmen vor Cyberangriffen zu schützen.
(Bild: Anar Mammadov - stock.adobe.com)
Laut der jüngsten Bitkom-Studie richteten Hacker 2022 in Deutschland einen Schaden von 206 Milliarden Euro an. 52 Prozent der 1.000 befragten Unternehmen befürchten demnach existenzielle Schäden durch Cyberattacken. Es ist das erste Mal, dass in der Umfrage mehr als jedes zweite Unternehmen Bedrohungen seiner digitalen Infrastruktur erwartet. Mit einer „großen Bedrohung“ rechnen immerhin knapp zwei Drittel (62 Prozent) der Firmen. Die Ergebnisse belegen, wie sehr deutsche Betriebe in den letzten Jahren ihre IT-Sicherheit vernachlässigt haben.
Vor diesem Hintergrund ist eine weitere Studie interessant. Wie das Marktforschungsinstitut IDC prognostiziert, werden Unternehmen bis 2027 weltweit 143 Milliarden Dollar für generative KI ausgeben. Doch auf die Technologie setzen nicht nur Firmen und Behörden. Cyberkriminelle fokussieren sich ebenso auf Algorithmen und Lerndaten. Denn auch wenn KI-Systeme viele Daten innerhalb kürzester Zeit analysieren, treffen sie ihre anschließenden Entscheidungen immer rational. Einer KI fehlen nicht nur Empathie und Emotionen, sondern auch Moral und Gewissen. Sie entscheidet nicht zwischen „richtig“ oder „falsch“ und „gut“ oder „schlecht“, sondern anhand ihres Algorithmus und den Daten, mit denen sie trainiert wurde.
Will man also eine KI manipulieren, eröffnen sich im Wesentlichen zwei Wege: entweder die Lerndaten der KI zu überlisten oder sie gezielt mit Falschinformationen zu füttern.
Sicherheitsrisiko 1: der Algorithmus
Algorithmen lösen die ihnen gestellten Aufgaben anhand eines festgelegten Schemas. Dabei wandelt sich der Input in einen Ausgabewert. Hat man die Eingaben des Algorithmus erst einmal entschlüsselt, eröffnen sich daraufhin vielfältige Wege, das KI-System gezielt zu manipulieren. Auf diese Weise versuchen Unternehmen und SEO-Experten beispielweise Tag für Tag die Suchmaschinenoptimierung von Google zu überlisten.
Doch die wirtschaftlichen Folgen durch getäuschte KI bilden erst die Spitze des Eisbergs. Die Tricks, die beim SEO-Ranking funktionieren, können beim autonomen Fahren oder bei der Flugsteuerung noch größeren Schaden anrichten. Hier besteht Gefahr für Leib und Leben. Von der überfahrenen roten Ampel bis hin zum Gefahrguttransporter, dessen manipulierter Navigations-Algorithmus ihn in einen Kindergarten rasen lässt, scheint alles möglich.
Über manipulierte Fluglotsen-Software will man gar nicht erst nachdenken. Auch Texte sowie Audio- und Video-Mitschnitte lassen sich durch KI auf vielfältige Art manipulieren. So ist es Wissenschaftlern gelungen, einen biometrischen Abdruck aus mehreren verschiedenen Passfotos zu erstellen. Der Scanner ordnete dabei unterschiedliche Portraits derselben Person zu.
Sicherheitsrisiko 2: Trainingsdaten
Eine weitere besorgniserregende Gefahr besteht darin, dass KI-Systeme und ihre Folgehandlungen stark von der Datenbasis abhängen, auf die sie sich beziehen. Denn der Algorithmus richtet sich während des Lernens ständig und flexibel neu aus, um Muster und Zusammenhänge zu erkennen. Die Verfälschung dieser Trainingsdaten, also das Füttern eines KI-Systems mit falschen Informationen, kann demnach die Sicherheit maßgeblich beeinträchtigen. Darüber hinaus können Hacker die Quellen der Daten ermitteln und damit weitere schwerwiegende Gefahren verursachen. Zum Beispiel wäre vorstellbar, dass die von einem KI-System gescannten biometrischen Fingerabdrücke in die Hände von Bedrohungsakteuren fallen.
Sicherheitsrisiko 3: fehlende Schutzinstrumente
Cyberkriminelle konzentrierten sich auf dem Gebiet der Künstlichen Intelligenz auf den Zugang, den Diebstahl und die Verschlüsselung von Daten sowie darauf, ganze Systeme lahmzulegen. Die Hacker entwickeln jedoch ständig effektivere und kreativere Angriffsarten, von denen sich IT-Sicherheitsexperten immer wieder überraschen lassen. Mit ihren Sicherheitsinstrumenten und Best Practices können sie Ihre KI daher oft nicht hinreichend vor Manipulation schützen. Es ist also höchste Zeit, dass Hersteller sich auf die drohende Gefahr gefasst machen und ihre Sicherheitsprodukte optimieren.
Wie sich Unternehmen jetzt schützen müssen
Auch für die Zukunft verspricht KI bedeutende Vorteile. Die Entwicklung des maschinellen Lernens wird komplexe Aufgaben immer besser lösen – ob in der Gesundheitsversorgung, der Automobilindustrie oder in der Landwirtschaft.
Neue Anwendungen könnten zukünftig auch auf Gebieten genutzt werden, von denen wir heute vielleicht noch gar nicht wissen, dass KI sie beeinflussen wird. Vergessen werden darf allerdings nie, dass ihre Zukunft stark von menschlichen Entscheidungen und Handlungen beeinflusst wird, insbesondere im Hinblick auf ethische Überlegungen und Regulierungen. Hier gilt es sicherzustellen, dass ihre Entwicklung und Anwendung stets im Einklang mit ethischen Standards und gesellschaftlichen Werten stehen.
Wie die oben genannten Umfragen beweisen, nutzen immer mehr deutsche Unternehmen generative KI-Systeme. Umso wichtiger ist es daher, ihre Schwachstellen zu erkennen, sie zu analysieren und sie mit wirksamen Maßnahmen vor Cyberangriffen zu schützen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
So könnten Algorithmen entwickelt werden, die bereits im Vorfeld vor einem unerlaubten Eindringen in ein System warnen. Haben sich Hacker Zugang verschafft, können diese speziellen Algorithmen manipulierte Daten aufspüren und löschen. Darüber hinaus sollten die bestehenden Schutzmechanismen überprüft und verbessert werden.
Denn wenn Unternehmen jetzt nicht zur Tat schreiten und diese Instrumente entwickeln und nutzen, werden die zu erwartenden KI-Cyberangriffswellen immense wirtschaftliche Schäden anrichten und viele Betriebe in ihrer Existenz bedrohen.
Über den Autor: Wolfgang Kurz ist Geschäftsführer und Gründer von indevis.