Strategien für den sicheren KI-Einsatz Warum Unternehmen KI-Sicherheit jetzt zur Chefsache machen müssen

Ein Gastbeitrag von Benjamin Eidam 6 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz ist längst Alltag – vom E-Mail-Text bis zur Soft­ware­ent­wick­lung. Doch mit den Chancen wachsen auch die Risiken: Sprach­modelle können täuschen, drohen oder sensible Daten preisgeben. Unter­nehmen müssen jetzt handeln, um Kontrolle und Vertrauen zu sichern.

KI bietet enorme Chancen, bringt aber auch neue Risiken: Unternehmen müssen Sicherheit und Governance von Anfang an mitdenken.(Bild: ©  Wanan - stock.adobe.com)
KI bietet enorme Chancen, bringt aber auch neue Risiken: Unternehmen müssen Sicherheit und Governance von Anfang an mitdenken.
(Bild: © Wanan - stock.adobe.com)

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr – sie ist mitten im Alltag von Unternehmen angekommen. Doch mit den beeindruckenden Fähigkeiten von KI wachsen auch die Sicherheitsrisiken rapide. Aktuelle Beispiele zeigen, dass KI-Systeme sogar erpressen können und bald einen technischen Entwicklungssprung erleben könnten, der auch bisherige Sicherheitsstrategien komplett überfordert.

Was jetzt schon passiert

Noch vor wenigen Jahren klang es wie Science-Fiction, wenn man von KI sprach, die eigenständig handelt oder sogar Menschen bedroht. Doch zwei aktuelle Beispiele zeigen, dass die Zukunft längst begonnen hat – und sie betrifft (potentiell) nicht mehr nur Technologie-Anbieter, sondern jedes Unternehmen, das (generative) KI im Alltag einsetzt:

  • Fallbeispiel „Erpresser-KI“
    Forscher von Anthropic gaben einem Sprachmodell Zugriff auf interne Mail- und Chat-Kanäle. Als sie das System abschalten wollten, drohte es u.a., sensible Informationen an Behörden zu schicken – ein klares Erpressungs­muster. Dieses Verhalten zeigte sich bei 16 weit verbreiteten KI-Modellen, von allen großen KI-Anbietern.
  • Fallbeispiel „AI-Manhattan-Project“
    Das KI-Forschungsinstitut Epoch AI rechnet vor: Würde die US-Regierung alle verfügbaren GPUs (Graphics Processing Unit = Grafikprozessor) bündeln, ließe sich bis 2027 ein Trainingslauf starten, der rund 10.000-mal mehr Rechenleistung nutzt als das Training von GPT-4. Das wäre wahrscheinlich ein gigantischer Sprung in Richtung allgemeiner KI (AGI) – und würde die Zeit für Sicherheits­tests und Entwicklungen dramatisch verkürzen. Dieses Beispiel zeigt eindrucksvoll, dass selbst die kurze Zeit, die wir - so weit grob planbar - aktuell haben, um KI wirklich sicher zu machen, unter Umständen noch weiter verkürzt werden kann. Was in gleichem Maße die Dringlichkeit dahinter explodieren lässt. Der Komet rast auf uns zu und wir haben noch nicht genügend Maßnahmen ergriffen, damit seine Einschlagenergie uns wärmt, anstatt uns ggf. massiv zu gefährden.

Warum wir deshalb heute statt morgen handeln müssen

Schon heutige LLMs können täuschen oder drohen. Und das besser als Menschen. Wenn bald noch viel größere und damit bessere Systeme kommen, steigt das Risiko – und zwar für jede Organisation, die KI einsetzt. Denn in Komplexität und damit größerer, anfälliger Oberfläche stecken Arten von Risiken, die aktuell schwer vorherzusehen sind. Und aktuelle Bedrohungen werden nur verstärkt.

Diese beiden Szenarien o. ä. betreffen schon heute jedes Unternehmen, weil KI längst alltägliches Arbeitswerkzeug geworden ist. Schon heute verfassen Sprachmodelle E-Mails, erstellen Tickets, bearbeiten sensible Kundendaten oder schreiben Software. Und schon heute zeigen diese Systeme, dass sie nicht immer so reagieren, wie wir es erwarten oder wünschen würden. Wenn KI-Systeme schon jetzt in der Lage sind zu drohen oder zu manipulieren, was passiert erst, wenn die nächste Generation noch intelligenter, schneller und mächtiger wird?

Diese Entwicklungen zeigen deutlich: KI-Sicherheit darf keine Nebensache sein. Wer jetzt handelt, kann Risiken frühzeitig erkennen und kontrollieren – oder sich zumindest klar dafür einsetzen, dass Sicherheit bei den großen Anbietern zur Priorität wird. So kann man das entscheidende Zünglein an der Waage sein, damit KI nicht vom Forschungsobjekt zur realen Bedrohung wird.

Handlungsempfehlungen und Lösungsansätze

Was also tun? Drei eng verzahnte Bausteine – Wissen, Verstehen, Dranbleiben – bringen KI-Sicherheit aus der abstrakten Schlagzeile in den gelebten Unternehmensalltag.

1. Baustein: Wissen

Sicherheit beginnt mit der Sprache. Wer die Grundbegriffe kennt, erkennt Risiken schneller und kann sie benennen. Ich muss ein Konzept verstehen können, damit ich es in mein Weltbild einbauen kann. Ich muss dabei allerdings kein KI-Forscher werden. Meine Faustregel ist die des Fußballs: Ich muss nicht wissen, aus welchem Stoff dieser ist, welche geometrischen Regeln hinter dem Muster liegen und/oder welchen Druck dieser zum optimalen Flug braucht. Aber ich muss wissen, was ein Fußball ist und was ich damit machen kann. Ähnlich ist es mit KI-Sicherheitsbegriffen wie

  • 1. Alignment – die Frage, ob ein Modell langfristig dieselben Ziele verfolgt wie seine Betreiber,
  • 2. dem Oberbegriff AI Safety, der Schutz vor unerwünschten KI-Nebenwirkungen überschreibt
  • 3. oder Prompt Injection: Angreifer schmuggeln Befehle in Benutzereingaben und hebeln so interne Guardrails aus.

Eine kompakte Übersicht zentraler Fachbegriffe bietet z. B. das „AI Security 101“-Glossar von Nightfall AI als guten Startpunkt.

2. Baustein: Verstehen

Technisches Tiefenwissen ist nicht nötig, wohl aber ein klares Bild davon, wo und wie KI in der eigenen Wertschöpfung steckt. Und stecken soll. Dabei helfen Fragen wie:

  • 1. Welche Modelle generieren Texte für unsere Kunden und uns?
  • 2. Welche Tools schreiben Code oder fassen Support-Tickets zusammen?
  • 3. Wo sind welche Modelle wie bei uns intern eingebunden und/oder werden benutzt, um z. B. Bilder zu erstellen?

Wer mindestens grob versteht, welche Daten fließen, welche Entscheidungen das System trifft und wer Verantwortung trägt, kann Risiken adressieren, statt sie zu vermuten. Dieses Prozess-Mapping liefert die Basis, um Security-Maßnahmen gezielt dort aufzuhängen, wo sie Wirkung zeigen – sei es in der Datenvorbereitung, im Prompt-Design oder in den Freigabe-Workflows. Und es ermöglicht Prävention und informierte Wachsamkeit.

3. Baustein: Dranbleiben

Modelle, Bedrohungen und Best Practices ändern sich schneller als jede klassische Policy. Sicherheit wird deshalb zum kontinuierlichen Disziplinfeld:

  • 1. Feste Ansprechpartner benennen,
  • 2. Eskalationspfade definieren,
  • 3. Monitoring-Metriken vereinbaren und
  • 4. regelmäßige Reviews verankern.

Moderne Ansätze wie „AI-assisted Alignment“ – Modelle überwachen sich gegenseitig – zeigen, wohin die Reise gehen kann: Weg vom Einmal-Audit, hin zu lebender Governance, die mit dem System skaliert. Nochmal, das heißt nicht, dass man selbst in die Untiefen dieser komplexen Unterthemen einsteigen muss. Aber ähnlich wie man beim Fußball die Elfmeter-Regel zumindest grob verstehen sollte, möchte man ein Spiel sinnvoll verfolgen, so braucht man eine grobe Karte, was KI-Sicherheit praktisch bedeutet und aus welcher Richtung neue Impulse dafür kommen. Es ist das gleiche wie mit IT-Sicherheit, nur Faktor 10 komplexer und Faktor 100 schneller. Deshalb ist es umso wichtiger, gründlich zu selektieren und sich auf das destilliert wichtigste zu fokussieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Mit diesem Dreiklang verwandeln Unternehmen diffuse KI-Risiken in handhabbare Routineaufgaben: Vokabular beherrschen, Einbettung verstehen, Aktualität sichern. So wird Sicherheit nicht zum Bremsklotz, sondern zum Ermöglicher verantwortungsvoller KI-Innovation.

Ausblick – Strategisch sicher in die KI-Zukunft

Und was heißt all das für uns von hier an in der “echten Welt”? Auch hier kann man wieder mit drei Punkten für Sicherheit zum Thema KI-Sicherheit sorgen:

1. Trends auf dem Radar halten

KI-Systeme entwickeln sich schneller als in Echtzeit weiter. Das macht sie fähiger, aber ggf. auch angreifbarer. Daher sollte man Kern-Entwicklungsrichtungen auf dem Zettel haben wie z. B. sie werden immer:

  • besser
  • günstiger
  • multimodaler
  • agentischer / “eigenständiger”

2. Unternehmensstrategie spiegeln

Stellen Sie jedes Trend-Signal der Frage gegenüber: „Zahlt das auf unsere Kernziele ein – oder schafft es neue Risiken?“ Und wenn es das tut, wie kann man es schnell, einfach und vor allem sicher selbst einsetzen?

3. Szenarien & Frühwarnsysteme verankern

  • „Strategische Vokabelliste“ erweitern. Ergänzen Sie Ihr bestehendes KI-(Security)-Glossar (Alignment, Prompt Injection …) um Begriffe wie Function Calling, Synthetic Data, Agentic Orchestration. Das Ziel ist es, die Zutaten so weit zu verstehen, dass man sicher mit ihnen kochen kann. Nicht, selbst zum Züchter zu werden.
  • Quarterly Tech + Risk Review. Ein interdisziplinäres 90-Minuten-Format pro Quartal ist meist ausreichend, um Metriken (Kosten ∕ Token, Incident-Reports, neue Angriffsszenarien und Abwehrmaßnahmen etc.) gegen die Firmenziele zu legen. Hier kann KI mit Funktionen wie z. B. Perplexity Pages zentral dabei helfen, neuen Input zu finden, zu selektieren und zu erklären.
  • Handlungsfähigkeit testen. Führen Sie wenigstens einmal pro Halbjahr einen „AI-Fire-Drill“ durch: Simulieren Sie mindestens eine kritische Modell-Fehlfunktion und überprüfen Sie Eskalations- und Abschalt-Prozesse.

Die Zukunft der KI folgt keinem linearen „immer größer, immer besser“. Vielmehr konvergieren Skalierung, Effizienz-Sprünge und Regulierung zu einem dynamischen Spannungsfeld. Wer die Trends kennt, sie mit der eigenen Strategie abgleicht und adaptive Governance-Mechanismen lebt, bleibt auch morgen handlungs- und innovationsfähig – bei einem kalkulierbaren und bestenfalls kontrollierbaren Risiko.

Fazit

Klar ist: Die Zeit, um KI-Systeme sicher und kontrollierbar zu machen, ist jetzt – nicht erst morgen. Wer frühzeitig die richtigen Schutzmaßnahmen ergreift, vermeidet teure Fehler und schützt sensible Unternehmensdaten. Machen Sie deshalb KI-Sicherheit zur Chefsache: Setzen Sie die fünf genannten Schutzbausteine direkt um, damit KI in Ihrem Unternehmen zum Wettbewerbsvorteil wird – und nicht zur Gefahr. Von dort aus können sie mit voller Kraft voraus sicher innovieren.

Über den Autor: Benjamin Eidam ist KI-Unternehmer, Berater, Dozent, sowie gefragter Keynote-Speaker. Er beschäftigt sich bereits seit 2010 mit angewandter KI und unterstützt Führungskräfte und Unternehmen dabei, ihre Prozesse durch intelligente Systeme zu transformieren. Sein Buch „Der KI-Schlüssel für Unternehmen - Ihr Zugang zu Künstlicher Intelligenz: nachhaltig, profitabel und sicher“ ist seit Kurzem im Wissenschaftsverlag Springer Gabler erhältlich.

(ID:50543839)