Ob bei der Videoanalyse, Zutrittskontrolle oder Vorfallbearbeitung – Künstliche Intelligenz (KI) verändert die Sicherheitsbranche grundlegend. Doch mit dem Einzug generativer Modelle ändern sich die Spielregeln. Der technologische Fortschritt bringt nicht nur neue Möglichkeiten, sondern auch neue Risiken – ethischer, rechtlicher und operationeller Natur.
Der Autor: Florian Matusek ist Director of AI Strategy bei Genetec
(Bild: Genetec)
KI in der Sicherheitsbranche ist kein neues Phänomen. Maschinelles Lernen, Deep Learning und regelbasierte Videoanalysen gehören seit Jahren zur Grundausstattung vieler Sicherheitslösungen – ob beim Perimeterschutz, der automatisierten Objekterkennung oder bei Zutrittskontrollsystemen. Die großen Veränderungen der vergangenen Monate und Jahre liegen jedoch in der zunehmenden Verbreitung generativer KI – also solcher Modelle, die selbst Inhalte erstellen, Texte analysieren oder semantische Zusammenhänge verstehen.
Gerade in sicherheitskritischen Infrastrukturen – wie Flughäfen, Stadien oder Energieversorgern – ist diese Entwicklung ambivalent: Auf der einen Seite eröffnet generative KI neue Möglichkeiten der intelligenten Analyse, forensischen Suche oder Frühwarnung. Auf der anderen Seite entstehen neue Herausforderungen: Welche Daten wurden für das Training verwendet? Wie lässt sich Verzerrung (Bias) vermeiden? Wer trägt die Verantwortung bei Fehlentscheidungen?
KI als Unterstützung, nicht als Ersatz
Hier setzt der Ansatz „Human-in-the-Loop“ an. Er besagt: Künstliche Intelligenz darf den Menschen nicht ersetzen – sondern soll ihn befähigen. Entscheidungen müssen stets nachvollziehbar, überprüfbar und korrigierbar bleiben. In sicherheitskritischen Anwendungen ist es essenziell, dass Menschen das letzte Wort haben. Die KI soll unterstützen, nicht urteilen.
Ein praktisches Beispiel: Bei Genetec wurde eine forensische Suche entwickelt, mit der Anwender über natürliche Sprache Videomaterial durchsuchen können. Gibt ein Nutzer beispielsweise ein: „Person mit rotem T-Shirt gestern Nachmittag auf dem Parkplatz“, analysiert das System die verfügbaren Datenquellen – liefert aber zugleich eine Rückmeldung, wie es die Eingabe interpretiert hat. Der Mensch validiert die Suchparameter und behält die Kontrolle.
Auch in der Moderation zeigt sich dieser Ansatz. Gibt ein Nutzer Begriffe ein wie „verdächtige Person“, antwortet das System: „‚Verdächtig‘ ist ein subjektiver Begriff – wir ignorieren ihn und suchen nach Personen zur angegebenen Zeit am angegebenen Ort.“ Das System liefert objektive Informationen. Die Bewertung bleibt dem Menschen überlassen. So wird die Effizienz gesteigert, ohne dass ethische oder rechtliche Risiken entstehen.
Vier zentrale Anwendungsbereiche – mit Chancen und Pflichten
1. Bewegungs- und Besuchsanalysen: KI-gestützte Auswertungen ermöglichen es, Personen- oder Verkehrsströme zu erkennen, potenzielle Engpässe zu identifizieren oder Evakuierungskonzepte zu verbessern. Betreiber können dadurch ihre Prozesse anpassen und Sicherheitsstandards einhalten. Gleichzeitig gilt: Die Erhebung personenbezogener Daten muss zweckgebunden, transparent und datensparsam erfolgen.
2. Forensische Suche: Bei Sicherheitsvorfällen kommt es auf Geschwindigkeit an. KI kann helfen, große Mengen an Videomaterial zu analysieren und relevante Sequenzen schneller zu identifizieren – etwa anhand von Kleidung, Farben oder Bewegungsrichtung. Entscheidend ist dabei: Der Zugriff auf sensible Informationen muss kontrolliert und nachvollziehbar bleiben.
3. Frühzeitige Gefahrenabwehr: In zunehmend vernetzten Systemlandschaften spielt auch Cybersicherheit eine wichtige Rolle. KI erkennt ungewöhnliche Muster, etwa bei Login-Versuchen oder Datenabflüssen, und kann entsprechende Warnungen auslösen. Der Datenschutz betrifft hier sowohl die digitalen Spuren im Netz als auch physische Systeme, etwa Kameras oder Zutrittsleser.
4. Fahrzeugerkennung und Bewegungsmuster: Moderne Systeme zur automatisierten Kennzeichenerkennung dienen nicht nur der Zutrittskontrolle, sondern helfen auch bei der Analyse von Bewegungsmustern, etwa im Stadtverkehr oder auf Betriebsgeländen. Auch hier ist der Einsatz datenschutzkonform zu gestalten – durch klare Regeln zur Zweckbindung, Datenminimierung und Zutrittskontrolle.
Verantwortungsvolle KI beginnt beim Design
Ein zentraler Aspekt beim Einsatz von KI in sicherheitsrelevanten Bereichen ist die Gestaltung der Systeme selbst. Das Konzept der „Responsible AI“ fordert, dass KI-Technologien nicht nur funktional, sondern auch fair, sicher und nachvollziehbar sind. Dazu gehört unter anderem:
Datenschutz von Anfang an („Privacy by Design“): Bereits im Entwicklungsprozess müssen Datenschutzanforderungen berücksichtigt werden – etwa durch technische Vorkehrungen zur Pseudonymisierung oder durch begrenzte Speicherfristen.
Transparente Entscheidungslogik: KI-Systeme müssen so gestaltet sein, dass ihre Funktionsweise erklärbar bleibt – für Anwender ebenso wie für Prüfbehörden.
Reduzierung von Verzerrungen (Bias): Algorithmen sollten so trainiert werden, dass sie keine diskriminierenden Muster reproduzieren – ein Risiko, das insbesondere bei der Analyse von Personenmerkmalen besteht.
Eindeutige Rollenverteilung: KI darf den Menschen nicht ersetzen, sondern ihn gezielt unterstützen. Kritische Entscheidungen gehören in menschliche Hände.
Der EU AI Act – klarer Rahmen, offene Fragen
Der EU AI Act soll erstmals einen einheitlichen Rechtsrahmen für KI-Anwendungen schaffen. Im Unterschied zu früheren Entwürfen reguliert er nicht die Technologie selbst, sondern ihren konkreten Einsatz – auf Basis eines risikobasierten Ansatzes. Verbotene Anwendungen wie Social Scoring werden kategorisch ausgeschlossen, Hochrisikoanwendungen – etwa bei biometrischer Echtzeitanalyse – unterliegen besonders strengen Auflagen.
Doch die Praxis zeigt: Für viele Sicherheitsanwendungen ist die Risikoeinstufung nicht eindeutig. Eine Kamera auf einem Parkplatz gilt unter Umständen als niedriges Risiko – dieselbe Kamera in einem Krankenhauszimmer aber als Hochrisikoanwendung. Diese Graubereiche führen bei Betreibern zu Unsicherheit: Welche Nachweise sind erforderlich? Wer trägt die Verantwortung? Und wie lassen sich bestehende Systeme einordnen?
Klar ist: Schon heute sind Organisationen verpflichtet, sogenannte Impact Assessments durchzuführen, wenn sie KI einsetzen – also Bewertungen der Auswirkungen auf Grundrechte, Sicherheit und Datenschutz. Auch Schulungen für Mitarbeiterinnen und Mitarbeiter zur korrekten Nutzung und Interpretation solcher Systeme sind vorgeschrieben. Einige zentrale Anforderungen des AI Act gelten bereits seit Februar und August dieses Jahres und im kommenden Jahr. Eine frühzeitige Vorbereitung ist daher unerlässlich.
Verantwortung beginnt nicht mit Regulierung – sondern mit Haltung
Unabhängig vom gesetzlichen Rahmen ist es entscheidend, KI nicht allein als Werkzeug zur Effizienzsteigerung zu sehen, sondern auch als gesellschaftlich wirksame Technologie. Es geht nicht nur darum, Gesetze zu befolgen, sondern um eine verantwortungsbewusste Haltung im Umgang mit sensiblen Daten und potenziell folgenreichen Entscheidungen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Internationale Leitlinien wie die der OECD, die ISO/IEC-Normen für KI oder das NIST AI Risk Management Framework bieten hilfreiche Orientierung. Sie alle basieren auf ähnlichen Prinzipien: Fairness, Transparenz, Nachvollziehbarkeit und menschliche Kontrolle. Ein modernes Governance-Modell für KI-Systeme zielt daher nicht auf reine Compliance, sondern auf ein ganzheitliches Verständnis von Verantwortung. Nur wenn Systeme erklärbar, prüfbar und sinnvoll eingebettet sind, entsteht Vertrauen.
Ausblick: Automatisierung ja – Autonomie nein
KI hat das Potenzial, die Sicherheitsbranche grundlegend zu verändern. Intelligente Systeme können Datenfluten bewältigen, Muster erkennen und Analysen liefern, die mit manuellen Mitteln kaum möglich wären. Doch dieser Fortschritt darf nicht in vollständiger Autonomie münden.
Automatisierung ist dann sinnvoll, wenn sie den Menschen entlastet und unterstützt – nicht, wenn sie ihn ersetzt. Entscheidungen über Personen, Situationen oder Sicherheitsmaßnahmen müssen nachvollziehbar und überprüfbar bleiben. KI kann Kontext liefern, Daten aufbereiten und Szenarien bewerten – aber der letzte Schritt gehört dem Menschen. Genau darin liegt das zentrale Prinzip des „Human-in-the-Loop“ – nicht als Option, sondern als zwingender Bestandteil einer verantwortungsvollen KI-Strategie.
Fazit: KI braucht klare Prinzipien – und den Mut zur Verantwortung
Künstliche Intelligenz eröffnet der Sicherheitsbranche neue Handlungsspielräume – doch sie stellt auch hohe Anforderungen an Governance, Ethik und Transparenz. Wer heute auf KI setzt, muss über die rein technische Implementierung hinausdenken. Der Weg zu vertrauenswürdiger KI führt über klare Verantwortlichkeiten, kontinuierliche Risikobewertung und den konsequenten Einbezug menschlicher Urteilskraft.
Regulierung ist dabei ein wichtiger Rahmen – doch entscheidend bleibt die innere Haltung: KI verantwortungsvoll einzusetzen heißt, nicht nur Risiken zu managen, sondern aktiv Vertrauen zu gestalten.