Das NIST AI Framework hat zum Ziel, Unternehmen und Behörden, die KI-Systeme nutzen, ein freiwilliges Konzept an die Hand geben, um mögliche Risiken, die sich aus dem Einsatz von KI-Systemen ergeben, wesentlich zu reduzieren. Damit soll letztlich eine verantwortungsvolle Nutzung der KI sichergestellt werden.
Da Unternehmen zunehmend KI-Technologien einsetzen, ist es angezeigt, die mit diesen Systemen verbundenen potenziellen Risiken zu reduzieren.
(Bild: ImageFlow - stock.adobe.com)
Die rasanten Fortschritte der Technologien rund um die künstliche Intelligenz (KI) bergen sowohl enorme Chancen als auch erhebliche Risiken. Für eine effektive Bewältigung dieser Risiken, hat das National Institute of Standards and Technology (NIST) mit dem NIST AI Risk Management Framework (AI RMF) eine Rahmenstruktur erstellt, um Organisationen beim Management von KI-Risiken zu unterstützen. In einem kurzen Video erklärt das NIST die wichtigsten Punkte.
Struktur des NIST-Frameworks
Das NIST AI Risk Management Framework besteht aus einer Reihe von Richtlinien, Best Practices sowie einem strukturierten Ansatz zur Identifizierung, Bewertung und Minderung von Risiken während des gesamten Lebenszyklus eines KI-Systems.
Das Framework ist in zwei große Bereiche unterteilt. Teil 1 enthält grundlegende Informationen zu KI-Risiken und –Herausforderungen. Wogegen sich Teil 2 mit den Map-, Measure-, Manage- und Govern-Funktionen (Kernfunktionen) als Anleitungen zur Bewältigung von KI-Bedrohungen befasst.
Kategorien von KI-Schäden
Das AI RMF legt drei übergreifende Schadenskategorien fest, die von den KI-Anwendern berücksichtigt werden sollen:
Schädigung eines Menschen: Gewährleistung des Schutzes der individuellen Freiheiten, der physischen und psychischen Sicherheit sowie der Chancengleichheit bei gleichzeitiger Wahrung demokratischer Anforderungen.
Schädigung einer Organisation: Schutz vor Störungen des Geschäftsbetriebs, potenziellen Sicherheitsrisiken im Zusammenhang mit Verstößen und Reputationsschäden.
Schädigung eines Ökosystems: Verhinderung von Störungen in globalen Finanz- oder Lieferkettensystemen und Minimierung von Schäden an Umwelt und natürlichen Ressourcen.
Vertrauenswürdige KI-Systeme
Zur Vermeidung der genannten Schäden zielt das NIST AI RMF darauf ab, die Fähigkeit der Entwickler zu verbessern sowie Überlegungen der Vertrauenswürdigkeit in das Design, die Entwicklung, die Verwendung und die Bewertung von KI-Produkten, -Diensten und -Systemen anzustellen. Hierzu skizziert das Framework für vertrauenswürdige KI-Systeme folgende Merkmale:
Sicher: Priorisierung der Sicherheit der User und Verhinderung von Schäden.
Belastbar: Schutz vor böswilligen Angriffen und Aufbau einer Widerstandfähigkeit gegenüber Herausforderungen.
Valide: Genaue und zuverlässige Ergebnisse.
Transparent: KI-Systeme sollten für Entscheidungen transparent und rechenschaftspflichtig sein.
Erklärbar: Verständlichkeit und Interpretierbarkeit.
Daten schützend: KI-Systeme sollten die Privatsphäre der User respektieren und personenbezogene Daten schützen.
Herausforderungen bei der Risikomessung
Undefinierte oder schlecht erfasste KI-Risiken bzw. -Ausfälle lassen sich weder statistisch noch subjektiv quantifizieren. Die Unfähigkeit, die von KI-Systemen ausgehenden Risiken genau einzuschätzen, bedeutet nicht immer, dass diese Risiken entweder hoch oder niedrig sind.
Kernfunktionen des Frameworks
Um KI-Systeme hoher Qualität zu etablieren, empfehlen sich regelmäßige Bewertungen der Effektivität des KI-Risikomanagements. Dadurch lassen sich die Risikomanagement- und Minderungsstrategien für die KI kontinuierlich verbessern. Der Kern des Frameworks unterteilt diese Aktivitäten in vier verschiedene miteinander verbundene Funktionen. Wobei während des gesamten Lebenszyklus eines KI-Systems spezifische Aktionen empfohlen werden.
MAP-Funktion
Trotz ihrer gegenseitigen Abhängigkeit haben miteinander kooperierende KI-Anwender oft keinen Einblick in die jeweiligen anderen Teile bzw. keine Kontrolle über sie. Dies erschwert es, gemeinsame Auswirkungen beim Risikomanagement zuverlässig vorherzusagen.
Als erste Funktion im Lebenszyklus verlangt die MAP-Funktion, dass die KI-Anwender unterschiedliche Perspektiven einholen. Dazu gehören interne Teams, externe Mitarbeiter, End-User und alle anderen, die möglicherweise davon betroffen sind, um etwaige KI-Risiken vollständiger einschätzen zu können.
MEASURE-Funktion
Sobald die KI-Anwender über das durch die MAP-Funktion erworbene umfassende Verständnis verfügen, fordert die MEASURE-Funktion dazu auf, KI-Systeme sowohl vor der Bereitstellung als auch regelmäßig während des Betriebs zu testen, um ein Verständnis ihrer Funktionalität und Vertrauenswürdigkeit zu aktualisieren.
Durch die konsequente Analyse, Bewertung, Überwachung und das Benchmarking von KI-Risiken und -Auswirkungen mithilfe verschiedener Tools können Anwender diese besser administrieren und so auch die IT-Security optimieren.
MANAGE-Funktion
Mit einem umfassenden Verständnis von KI-Systemen sowie regelmäßigen Neubewertungen sind die Anwender wesentlich besser in der Lage, KI-Systeme im Hinblick auf ihre Risiken optimal zu verwalten. Dazu gehört auch die Zuweisung geeigneter Ressourcen, um den Nutzen der KI zu maximieren und gleichzeitig negative Auswirkungen zu minimieren.
GOVERN-Funktion
Diese übergreifende Funktion stellt Richtlinien für die Implementierung von Strukturen, Systemen, Prozessen und Teams bereit. Dazu zählen im Wesentlichen:
Etablierung einer starken Risiko-Managementkultur.
Entwicklung von Richtlinien und Verfahren.
Integration von Feedback-Mechanismen für eine effektive Risikoerkennung und -minderung.
Für alle diese vier Funktionen enthält das sogenannte NIST AI RMF Playbook weitere Informationskategorien und spezifische Maßnahmen für die jeweilige Implementierung.
Fazit
Das AI Risk Management Framework (AI RMF) bietet einen strukturierten Ansatz zur Identifizierung, Bewertung und Minderung der mit KI-Systemen verbundenen Risiken. Es ermöglicht den Organisationen, sich in der komplizierten Welt der KI-Technologie zurechtzufinden und gleichzeitig eine ethische KI-Einführung zu gewährleisten, vor potenziellen Schäden zu schützen, Rechenschaftspflicht und Transparenz bei der KI-Implementierung zu fördern und die Rechte des Einzelnen zu schützen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das Framework ist für den freiwilligen Einsatz gedacht und bietet einen umfassenden Fahrplan für einen verantwortungsvollen Umgang mit KI-Risiken.