Ursprünglich aus der Cybersecurity stammend, hat sich Red Teaming mittlerweile zu einem Schlüsselelement in generativer KI entwickelt. Die Methode, die Schwachstellen durch Simulation eines Gegners aufdeckt, verbessert nicht nur die Sicherheit von Systemen, sondern auch die Zuverlässigkeit von KI-Modellen und prägt damit unsere digitale Zukunft.
Nicht nur für die Suche nach Schwachstellen in Software und Systemen lassen sich Red Teams sinnvoll einsetzen; auch zur Evaluierung generativer KI können Red Teams viel beitragen.
(Bild: Alexander Limbach - stock.adobe.com)
Beim Red Teaming handelt es sich um eine adverse Technik, die darauf abzielt, Fehlerquellen aufzudecken. Generell führt ein Expertenteam eine Reihe von Tests durch, um zu überprüfen, ob die Sicherheitsmaßnahmen Schwachstellen erkennen, die Hacker möglicherweise ausnutzen könnten. In jüngerer Zeit wurde dieses Konzept auch für generative KI übernommen, denn gerade hier gibt es Fehlerquellen, die bei automatisierten Tests kaum auffallen.
Generative KI-Modelle arbeiten mit Wahrscheinlichkeiten und generieren eine breite Palette von Ergebnissen, die Ungenauigkeiten, themenfremde Antworten, unsicheres Material oder regelrechte Halluzinationen enthalten können. Red Teaming gilt dabei zunehmend als bevorzugte Technik, um Probleme zu identifizieren. Entwicklerinnen und Entwicklerkönnen diese Informationen dann nutzen, um die Modelle neu zu trainieren oder Rahmenbedingungen zu entwickeln, um Risiken zu mindern. Bei Tests liegt der Fokus oft auf Fragen der Sicherheit, der Sicherheitsvorkehrungen, der Präzision, der Funktionsweise und der Leistungsfähigkeit.
Das bedeutet, dass menschliche Teams oft Spezialisten oder Generalisten mit bestimmten demografischen Merkmalen benötigen. Die Qualität der Arbeit eines Red Teams hängt stark von der Qualität des Testteams ab.
Generalisten: Die vielseitigen Prüfer
In der Regel bewerten Generalisten Elemente wie Lösungsfunktionalität, Leistung und Sicherheit. Darunter fallen Fragen, wie:
Funktioniert die Lösung wie erwartet?
Funktionieren die Features zuverlässig?
Ist die Lösung hinsichtlich Latenz und Qualität konsistent?
Produziert die Lösung anstößige, unangemessene oder themenfremde Ausgaben?
Die Rolle des Red Teams besteht in der Regel darin, systemische Probleme zu identifizieren. Obwohl einige Tests unabhängig vom Hintergrund menschlicher Testerinnen und Testern durchgeführt werden können, ist es eine bewährte Praxis, auf der Grundlage demografischer Merkmale zu rekrutieren. Das ermöglicht es dem Lösungsanbieter besser zu verstehen, wie eine breite Nutzerbasis reagieren könnte. Potenzielle KI-Sicherheits- und ethische Probleme werden so schon während der Tests aufgedeckt und damit, bevor sie von den Nutzenden entdeckt werden.
Spezialisten im Fokus
Spezialisten werden aufgrund ihres tieferen Fachwissens hinzugezogen, um die Antworten generativer KI-Systeme zu bewerten. Das bedeutet, dass nach Personen gesucht wird, die sich in Recht, Geschichte, Soziologie, Ethik, Physik, Mathematik, Informatik oder in sonstigen Themen auskennen, in denen ein generatives KI-Modell Ergebnisse produzieren könnte. Ihr tiefgreifendes Wissen ist entscheidend für die Überprüfung der Genauigkeit und Qualität der Antworten.
Ein Beispiel: Während ChatGPT über diverse Themen Auskunft geben kann, ist Spellbook auf rechtliche Dokumente und Verträge spezialisiert. Ein Red Team für Spellbook wird daher von Testern profitieren, die Expertenwissen im Bereich Recht besitzen. ChatGPT könnte sich auf das Red Teaming auf der Grundlage demografischer Merkmale konzentrieren, und OpenAI möchte möglicherweise auch das Red Teaming für einige spezifische Themen durchführen, indem es Bereichsexpertise nutzt. Eine ähnliche Red Team-Lösung für eine Bankanwendung könnte eine Mischung aus Fachkenntnissen über die Produkte der Bank und Generalisten mit demografischer Vielfalt sein.
Red Teams werden bereits seit Jahren im Bereich der generativen KI eingesetzt. Das AI Red Team von Microsoft wurde 2018 gegründet und hat Berichten zufolge über 150 generative KI-Systeme bei Microsoft getestet und dabei über 400 Fehler gefunden, von Sicherheitslücken bis hin zu ethischen Problemen.
Es gibt eine große Nachfrage von Unternehmen nach Red Teams, wobei eine Umfrage des Harvard Business Review ergab, dass 72 Prozent derjenigen, die generative KI nutzen, ihre Programme einem Red Team vorgelegt haben. Selbst das Weiße Haus veranstaltete letztes Jahr gemeinsam mit DEFCON einen Wettbewerb für Generative AI Red Teams. Die Teilnehmenden versuchten, Fehler in acht LLMs zu finden und auszunutzen.
Identifizierung unbekannter Risiken
Die Nutzung von Red Teams zur Evaluierung generativer KI nimmt zu und soll voraussichtlich aufgrund neuer Risiken deutlich erweitert werden. Ein kürzlich erschienener Bericht von Forschenden von Anthropic beschreibt, wie sie ein generatives KI-System darauf trainiert haben, Täuschungsverhalten anzuwenden. Das geschieht, indem es etablierte Sicherheitsmethoden der Künstlichen Intelligenz, einschließlich supervisiertem Feintuning, Belohnungsmodellierung und Interpretierbarkeit, erfolgreich umgeht. Darüber hinaus stellte das Team fest, dass einige Modelle möglicherweise Daten und Prozesse während des Trainingsprozesses unbeabsichtigt verbergen.
Große Pools und große Segmente
Die Notwendigkeit von Red Teaming ist offensichtlich, jedoch bleiben bei den gegenwärtigen Methoden wichtige Aspekte des „Wie“ unbeachtet. Neben den von Menschen durchgeführten Verfahren und eingesetzten Tools stellt die gezielte Auswahl von Testenden, die sowohl demografische als auch fachliche Kriterien erfüllen, für viele Organisationen eine bedeutende Hürde dar. Es genügt nicht, lediglich Zugriff auf eine breite Masse zu haben. Vielmehr ist es entscheidend, einen Pool an vorausgewählten Testenden zur Verfügung zu haben, die den spezifischen demografischen und fachlichen Vorgaben gerecht werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Über den Autor: Chris Sheehan ist als SVP & GM, Strategic Accounts und AI bei Applause verantwortlich für die Entwicklung und Ausführung der Programme des Unternehmens zur Kundenbindung und -erweiterung für Großkunden in Nordamerika. Bevor er seine Rolle im Customer Success übernahm, leitete er das Team für langfristige Produktstrategie bei Applause.