Black Hat 2024 – 15 Ways to Break Your Copilot Sicherheitsforscher zeigt wie man Copilot missbrauchen kann

Von Thomas Joos 1 min Lesedauer

Anbieter zum Thema

Auf der Black Hack 2024 in den USA hat der Sicherheitsforscher Michael Bargury 15 Wege gezeigt, um die Sicherheitsfunktionen von Copilot auszuhebeln und so sensible Unternehmensdaten zu entwenden.

Ein Sicherheitsforscher hat auf der Black Hat 2024 gezeigt, wie leicht die KI-Dienste von Microsoft Copilot missbraucht werden können.(Bild:  Microsoft / KI-generiert)
Ein Sicherheitsforscher hat auf der Black Hat 2024 gezeigt, wie leicht die KI-Dienste von Microsoft Copilot missbraucht werden können.
(Bild: Microsoft / KI-generiert)

Sicherheitsforscher Michael Bargury hat auf der Black Hat 2024 gezeigt , wie leicht es ist mit Microsoft Copilot Daten von Unternehmen zu entwenden.

Microsoft CopilotHunter kann Daten stehlen

Microsoft Copilot Studio ist die Technologie, die hinter den Copilot-Anwendungen von Microsoft steht und die Plattform, auf der benutzerdefinierte Copilots in Unternehmen entwickelt werden können. Das zentrale Versprechen dieses Systems besteht darin, dass jeder in der Lage sein soll, einen sicheren Copiloten zu erstellen, wobei die Annahme gilt, dass jeder dieser Bots von vornherein sicher ist.

In einem aktuellen Vortrag wird aufgezeigt, wie leicht Copilot Studio-Bots genutzt werden können, um sensible Unternehmensdaten zu exfiltrieren und dabei bestehende Sicherheitsmechanismen wie Data Loss Prevention (DLP) zu umgehen. Der Fokus liegt auf der Kombination aus unsicheren Voreinstellungen, zu großzügigen Berechtigungen für Plugins und einer allzu optimistischen Herangehensweise im Design, die dazu führt, dass Datenlecks nicht nur möglich, sondern wahrscheinlich werden. Dabei wird analysiert, wie Copilot Studio Unternehmensdaten und -operationen in die Hände von generativer KI (GenAI) legt und wie dies die Angriffsfläche für sogenannte Prompt Injection-Angriffe vergrößert, was sich negativ auf die Integrität und Vertraulichkeit der Daten auswirken kann.

Zusätzlich wird das Tool „CopilotHunter“ vorgestellt, ein Recon- und Exploitation-Tool, das öffentlich zugängliche Copilots scannt und mithilfe von Fuzzing-Techniken sowie generativer KI ausnutzt, um sensible Unternehmensdaten zu extrahieren. Im Rahmen der Untersuchung wurden tausende öffentlich zugängliche Bots analysiert, wobei erhebliche Mengen sensibler Daten und Unternehmensanmeldedaten aufgedeckt wurden.

Im Vortrag wurden konkrete Konfigurationsvorschläge und häufige Fehler aufgezeigt, die bei der Nutzung der Microsoft-Plattform vermieden werden sollten, um die Sicherheit und Zuverlässigkeit von Copilots zu gewährleisten. Diese Einsichten sollen dazu beitragen, den Einsatz von Copilot Studio in Unternehmen sicherer zu gestalten und die potenziellen Risiken durch unsichere Bots zu minimieren.

(ID:50133796)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung