Security-Risiko KI Die fünf größten Security-Risiken bei Microsoft Copilot

Ein Gastbeitrag von Volker Sommer 4 min Lesedauer

Anbieter zum Thema

Seit Anfang des Jahres ist Microsoft Copilot verfügbar. Trotzdem zögern noch immer zahlreiche Unternehmen mit der Einführung – insbesondere aufgrund von Sicherheitsbedenken. Nicht ganz zu Unrecht, denn der leistungsstarke KI-Assistent verfügt über umfangreiche Zugriffsrechte auf die unterschiedlichsten Daten – letztlich auf alles, was ein Mitarbeitender in der Microsoft 365-Welt macht.

Durch die künstliche Intelligenz rücken die Daten noch mehr ins Blickfeld. Sie zu schützen, muss spätestens jetzt oberste Priorität aller Security-Maßnahmen haben. (Bild:  Alexander Limbach - stock.adobe.com)
Durch die künstliche Intelligenz rücken die Daten noch mehr ins Blickfeld. Sie zu schützen, muss spätestens jetzt oberste Priorität aller Security-Maßnahmen haben.
(Bild: Alexander Limbach - stock.adobe.com)

1. Mitarbeitende haben Zugriff auf zu viele Daten

Die Antworten von Copilot basieren auf den Informationen, auf die der User zugreifen kann. Entsprechend spielen die Zugriffsrechte eine entscheidende Rolle. Microsoft weist hierauf auch explizit hin und empfiehlt einen effektiven Least-Privilege-Ansatz. Dadurch soll sichergestellt werden, dass nur die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte haben. In der Realität sehen wir aber ein anderes Bild. So zeigt der SaaS-Datenrisiko-Report, der auf tausenden Risikobewertungen von M365-Umgebungen basiert, dass ein durchschnittlicher M365-Mandant über mehr als 40 Millionen eindeutige Berechtigungen verfügt, gut 110.000 sensitive Daten öffentlich teilt und 27.000 Links erstellt hat. All diese Informationen stehen somit auch Copilot bei der Beantwortung von Anfragen zur Verfügung.

2. Sensible Daten sind oftmals nicht oder falsch gekennzeichnet

Zahlreiche Datensicherheitsfunktionen basieren auf Sensitivitäts­kennzeichnungen. Nur wenn diese korrekt sind, können die Daten effektiv geschützt werden. Wer soll aber diese Klassifizierung durchführen? Soll man die Mitarbeitenden auffordern, alles zu klassifizieren? Wie viele der Daten werden auf diese Weise tatsächlich korrekt gekennzeichnet? Was ist mit all den Daten, die bereits erstellt wurden? Welche sensitiven Daten sollen auch Copilot zur Verfügung stehen? All dies kann nur mit intelligenter Automation erfolgen, bei der jede Datei genau gescannt wird, um sensitive Inhalte wie personenbezogene Daten, Zahlungskarteninformationen, digitale Geheimnisse wie Passwörter, Schlüssel und Token sowie geistiges Eigentum wie Code zu erkennen. Auf diese Weise lässt sich automatisch eine Kennzeichnung anbringen oder eine falsche Kennzeichnung korrigieren. Dies gilt insbesondere, wenn an Dateien gearbeitet wurde und sich dadurch womöglich die Sensitivität geändert hat.

3. Insider können schnell Daten finden und exfiltrieren

Der Vorteil von künstlicher Intelligenz ist, dass man vormals komplizierte und aufwändige Arbeitsgänge durch einen Assistenten erledigen lassen kann – etwa die Suche nach sensitiven Informationen. Ohne KI muss man selbst nach den entsprechenden Ordnern suchen, Dateien finden, diese prüfen usw. Diese zeitintensiven Vorgänge gehören mit Copilot der Vergangenheit an. Eine einfache Eingabeaufforderung wie „Zeige mir alle Dateien mit personenbezogenen Daten“ liefert in Sekundenschnelle das gewünschte Ergebnis.

4. Angreifer können leicht Zugangsinformationen aufspüren

Wie bei der Suche nach sensitiven Daten, kann Copilot auch dazu genutzt werden, in Dateien gespeicherte Passwörter, Zugangsinformationen und API-Keys zu finden. Selbstverständlich ist das Speichern dieser Informationen ein eklatanter Verstoß gegen grundlegende Cyber-Hygiene. Dennoch wird dies nach wie vor noch gemacht, auch bei Mitarbeitenden, die sich der Gefahren durchaus bewusst sind, aber auf die Bequemlichkeit nicht verzichten wollen. Auch hier reicht ein einfacher Befehl aus: „Gibt es Dateien mit Anmeldeinformationen? Erstelle mir eine Zusammenfassung der Nutzernamen und Kennwörter.“ Diese Secrets können dann für eine Privilegien-Eskalation und laterale Bewegungen missbraucht werden.

5. Generative KI erzeugt schnell viele neue sensitive Daten

Die Zusammenfassung eines Teams-Meetings, das Verfassen von Antworten auf Mails oder die Analyse von Excel-Daten: All diese typischen Einsatzszenarien von Copilot schaffen neue sensitive Daten, die ebenfalls gelabelt und geschützt werden müssen. Schon durch die Einführung der Cloud und den entsprechenden Collaboration-Tools gab es eine regelrechte Datenexplosion, die sich nun nochmals durch die KI verstärken wird. Es liegt auf der Hand, dass man hier mit manuellen Mitteln nicht schritthalten kann.

Ohne intelligente Automation kann keine der hier beschriebenen Sicherheit-Herausforderungen adressiert werden. Das richtige Maß an Zugriff und die Durchsetzung des Least-Privilege-Ansatzes können nicht manuell erfolgen. Dabei gelten die grundlegenden Maßnahmen zur Datensicherheit nach wie vor. Durch generative KI wie Microsoft Copilot werden sie sogar noch wichtiger, da sich der Zugriff, die Nutzung und die Erstellung von Daten nochmals beschleunigt. Deshalb ist es von größter Bedeutung, schon vor der Einführung von Copilot sicherzustellen, dass jeder Mitarbeitende nur auf die Daten zugreifen kann, die er tatsächlich für seine Arbeit benötigt. Allerdings ist dies kein einmaliges Projekt, da mit den Daten auch die Zugriffsrechte permanent wachsen. Entsprechend müssen Sicherheitsverantwortliche in der Lage sein, permanent diese zu überprüfen und gegebenenfalls zu reduzieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Darüber hinaus muss besonderes Augenmerk auf der Datennutzung liegen. Hierbei sollten alle Datenberührungen, Authentifizierungen, die Erstellung und Verwendung von Links im Kontext der Daten und ihrer normalen Verwendung überwacht werden. Kommt es dann zu Abweichungen gegenüber dem Normalverhalten, müssen die Sicherheitsverantwortlichen sofort informiert und entsprechende Gegenmaßnahmen automatisiert eingeleitet werden. Nur so kann der Missbrauch der KI verhindert werden. Durch die künstliche Intelligenz rücken die Daten noch mehr ins Blickfeld. Sie zu schützen, muss spätestens jetzt oberste Priorität aller Security-Maßnahmen haben.

Über den Autor: Volker Sommer ist Regional Sales Director DACH & EE von Varonis Systems.

(ID:50120102)