gesponsertInsider Research im Gespräch Schutz für KI: Sichere Einführung von Microsoft Copilot

2 min Lesedauer

Gesponsert von

KI-Tools ermöglichen enorme Effizienzsteigerungen. Werden sie jedoch nicht hinreichend kontrolliert, können Mitarbeitende unbeabsichtigt sensible Informationen preisgeben. Zudem sind Cyberkriminelle und böswillige Insider in der Lage, Daten schneller als je zuvor zu stehlen. Wie kann man KI-Tools wie Copilot schützen? Das Interview von Insider Research auf der it-sa 2024 mit Florian Raack von Varonis liefert Antworten.

"Schutz für KI: Sichere Einführung von Microsoft Copilot", ein Interview von Oliver Schonschek, Insider Research, mit Florian Raack von Varonis.(Bild:  Vogel IT-Medien / Varonis / Schonschek)
"Schutz für KI: Sichere Einführung von Microsoft Copilot", ein Interview von Oliver Schonschek, Insider Research, mit Florian Raack von Varonis.
(Bild: Vogel IT-Medien / Varonis / Schonschek)

Generative KI-Tools sind in der Lage, die Produktivität erheblich zu verbessern. Allerdings können Angreifer und böswillige Insider die Technologie auch als Waffe einsetzen, um sensitive Daten schnell zu erfassen und zu stehlen. „Prompt Hacking“ wird so zunehmend zu einer ernsten Cyber-Bedrohung. Nur wenn auch diese entschärft werden kann, können KI-Projekte erfolgreich anlaufen.

Varonis für Microsoft 365 Copilot identifiziert verdächtige Eingabeaufforderungen, wenn zum Beispiel Mitarbeitende nach Gehaltsinformationen oder Geschäftsgeheimnissen suchen. Neben der Erkennung von offenkundig böswilligen Aktivitäten nutzt Varonis maschinelles Lernen, um Verhaltensprofile für jeden Benutzer zu erstellen. Auf diese Weise kann abnormales Verhalten – in Verbindung mit Copilot oder auch anderweitig – schnell erkannt und automatisch gestoppt werden.

Im Gespräch mit Oliver Schonschek, News-Analyst bei Insider Research, erklärt Florian Raack, Sales Engineer bei Varonis, unter anderem:

  • Zuerst einmal: Basis einer KI sind ja die (Trainings-)Daten. Was muss man über seine Daten wissen, bevor man mit KI startet?
  • KI kann der Cybersicherheit helfen, braucht aber auch selbst Schutzmaßnahmen. Das gilt auch für Copilot. Welche Risiken bestehen, wenn Copilot eingeführt und genutzt wird?
  • Was ist zum Beispiel „Prompt Hacking“?
  • Reichen die bei Microsoft integrierten Funktionen für die sichere Copilit-Einführung und -Nutzung?
  • Wie erhalten Unternehmen bisher Übersicht über mögliche Risiken bei Copilot-Nutzung? Ist die Sicherheitslage bisher transparent genug?
  • Was leistet das Dashboard von Varonis zur Copilot-Sicherheitslage?
  • Kann man auch eigene Security-Reports damit erstellen?
  • Kann man auch zum Beispiel Daten aus dem eigenen SOC einbeziehen?
  • Nun erstellen ja viele Unternehmen interne KI-Richtlinien. Aber alleine auf dem Papier helfen diese nicht wirklich. Wie kann man die Durchsetzung der Richtlinien automatisieren?
  • Und wenn eine KI wie Copilot selbst Aktivitäten ausführt, die verdächtig erscheinen? Wie kann man die feststellen? Vielfach erscheint eine KI ja wie eine Blackbox.
  • Und wie wird das eben erwähnte „Prompt Hacking“ verhindert?
  • Und kann man das einmal testen? Gibt es eine Demo?

Der neue Podcast steht bei Captivate, bei Apple Podcasts, bei Spotify, bei TuneIn, bei Deezer und bei YouTube zur Verfügung. Am besten gleich reinhören, bei "Insider Research im Gespräch", dem Podcast mit den Insidern der Digitalen Transformation!

(ID:50217129)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung