Cyberkriminelle nutzen KI So schützen sich Unternehmen vor KI-Risiken

Ein Gastbeitrag von Wolfgang Kurz 4 min Lesedauer

Anbieter zum Thema

KI boomt – doch sie ist leider auch verwundbar. Die Technologie sieht sich immer kreativeren Angriffsarten und -methoden von Cyberkriminellen ausgeliefert. Höchste Zeit, dass Unternehmen effektive Schutzmaßnahmen entwickeln, ansonsten drohen hohe wirtschaftliche Verluste.

Immer mehr deutsche Unternehmen nutzen generative KI-Systeme. Umso wichtiger ist es daher, ihre Schwachstellen zu erkennen, sie zu analysieren und sie mit wirksamen Maßnahmen vor Cyberangriffen zu schützen.(Bild:  Anar Mammadov - stock.adobe.com)
Immer mehr deutsche Unternehmen nutzen generative KI-Systeme. Umso wichtiger ist es daher, ihre Schwachstellen zu erkennen, sie zu analysieren und sie mit wirksamen Maßnahmen vor Cyberangriffen zu schützen.
(Bild: Anar Mammadov - stock.adobe.com)

Laut der jüngsten Bitkom-Studie richteten Hacker 2022 in Deutschland einen Schaden von 206 Milliarden Euro an. 52 Prozent der 1.000 befragten Unternehmen befürchten demnach existenzielle Schäden durch Cyberattacken. Es ist das erste Mal, dass in der Umfrage mehr als jedes zweite Unternehmen Bedrohungen seiner digitalen Infrastruktur erwartet. Mit einer „großen Bedrohung“ rechnen immerhin knapp zwei Drittel (62 Prozent) der Firmen. Die Ergebnisse belegen, wie sehr deutsche Betriebe in den letzten Jahren ihre IT-Sicherheit vernachlässigt haben.

Vor diesem Hintergrund ist eine weitere Studie interessant. Wie das Marktforschungsinstitut IDC prognostiziert, werden Unternehmen bis 2027 weltweit 143 Milliarden Dollar für generative KI ausgeben. Doch auf die Technologie setzen nicht nur Firmen und Behörden. Cyberkriminelle fokussieren sich ebenso auf Algorithmen und Lerndaten. Denn auch wenn KI-Systeme viele Daten innerhalb kürzester Zeit analysieren, treffen sie ihre anschließenden Entscheidungen immer rational. Einer KI fehlen nicht nur Empathie und Emotionen, sondern auch Moral und Gewissen. Sie entscheidet nicht zwischen „richtig“ oder „falsch“ und „gut“ oder „schlecht“, sondern anhand ihres Algorithmus und den Daten, mit denen sie trainiert wurde.

Will man also eine KI manipulieren, eröffnen sich im Wesentlichen zwei Wege: entweder die Lerndaten der KI zu überlisten oder sie gezielt mit Falschinformationen zu füttern.

Sicherheitsrisiko 1: der Algorithmus

Algorithmen lösen die ihnen gestellten Aufgaben anhand eines festgelegten Schemas. Dabei wandelt sich der Input in einen Ausgabewert. Hat man die Eingaben des Algorithmus erst einmal entschlüsselt, eröffnen sich daraufhin vielfältige Wege, das KI-System gezielt zu manipulieren. Auf diese Weise versuchen Unternehmen und SEO-Experten beispielweise Tag für Tag die Suchmaschinenoptimierung von Google zu überlisten.

Doch die wirtschaftlichen Folgen durch getäuschte KI bilden erst die Spitze des Eisbergs. Die Tricks, die beim SEO-Ranking funktionieren, können beim autonomen Fahren oder bei der Flugsteuerung noch größeren Schaden anrichten. Hier besteht Gefahr für Leib und Leben. Von der überfahrenen roten Ampel bis hin zum Gefahrguttransporter, dessen manipulierter Navigations-Algorithmus ihn in einen Kindergarten rasen lässt, scheint alles möglich.

Über manipulierte Fluglotsen-Software will man gar nicht erst nachdenken. Auch Texte sowie Audio- und Video-Mitschnitte lassen sich durch KI auf vielfältige Art manipulieren. So ist es Wissenschaftlern gelungen, einen biometrischen Abdruck aus mehreren verschiedenen Passfotos zu erstellen. Der Scanner ordnete dabei unterschiedliche Portraits derselben Person zu.

Sicherheitsrisiko 2: Trainingsdaten

Eine weitere besorgniserregende Gefahr besteht darin, dass KI-Systeme und ihre Folgehandlungen stark von der Datenbasis abhängen, auf die sie sich beziehen. Denn der Algorithmus richtet sich während des Lernens ständig und flexibel neu aus, um Muster und Zusammenhänge zu erkennen. Die Verfälschung dieser Trainingsdaten, also das Füttern eines KI-Systems mit falschen Informationen, kann demnach die Sicherheit maßgeblich beeinträchtigen. Darüber hinaus können Hacker die Quellen der Daten ermitteln und damit weitere schwerwiegende Gefahren verursachen. Zum Beispiel wäre vorstellbar, dass die von einem KI-System gescannten biometrischen Fingerabdrücke in die Hände von Bedrohungsakteuren fallen.

Sicherheitsrisiko 3: fehlende Schutzinstrumente

Cyberkriminelle konzentrierten sich auf dem Gebiet der Künstlichen Intelligenz auf den Zugang, den Diebstahl und die Verschlüsselung von Daten sowie darauf, ganze Systeme lahmzulegen. Die Hacker entwickeln jedoch ständig effektivere und kreativere Angriffsarten, von denen sich IT-Sicherheitsexperten immer wieder überraschen lassen. Mit ihren Sicherheitsinstrumenten und Best Practices können sie Ihre KI daher oft nicht hinreichend vor Manipulation schützen. Es ist also höchste Zeit, dass Hersteller sich auf die drohende Gefahr gefasst machen und ihre Sicherheitsprodukte optimieren.

Wie sich Unternehmen jetzt schützen müssen

Auch für die Zukunft verspricht KI bedeutende Vorteile. Die Entwicklung des maschinellen Lernens wird komplexe Aufgaben immer besser lösen – ob in der Gesundheitsversorgung, der Automobilindustrie oder in der Landwirtschaft.

Neue Anwendungen könnten zukünftig auch auf Gebieten genutzt werden, von denen wir heute vielleicht noch gar nicht wissen, dass KI sie beeinflussen wird. Vergessen werden darf allerdings nie, dass ihre Zukunft stark von menschlichen Entscheidungen und Handlungen beeinflusst wird, insbesondere im Hinblick auf ethische Überlegungen und Regulierungen. Hier gilt es sicherzustellen, dass ihre Entwicklung und Anwendung stets im Einklang mit ethischen Standards und gesellschaftlichen Werten stehen.

Wie die oben genannten Umfragen beweisen, nutzen immer mehr deutsche Unternehmen generative KI-Systeme. Umso wichtiger ist es daher, ihre Schwachstellen zu erkennen, sie zu analysieren und sie mit wirksamen Maßnahmen vor Cyberangriffen zu schützen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

So könnten Algorithmen entwickelt werden, die bereits im Vorfeld vor einem unerlaubten Eindringen in ein System warnen. Haben sich Hacker Zugang verschafft, können diese speziellen Algorithmen manipulierte Daten aufspüren und löschen. Darüber hinaus sollten die bestehenden Schutzmechanismen überprüft und verbessert werden.

Denn wenn Unternehmen jetzt nicht zur Tat schreiten und diese Instrumente entwickeln und nutzen, werden die zu erwartenden KI-Cyberangriffswellen immense wirtschaftliche Schäden anrichten und viele Betriebe in ihrer Existenz bedrohen.

Über den Autor: Wolfgang Kurz ist Geschäftsführer und Gründer von indevis.

(ID:49922286)