KI entscheidet mit, welche Inhalte Menschen sehen, welche Empfehlungen sie glauben und welche Prozesse Unternehmen automatisieren. 2026 muss sie deshalb wie eine sicherheitskritische Technologie behandelt werden: mit verifizierten Identitäten, Security by Design und klaren Verantwortlichkeiten, statt maximaler Interaktionsfreiheit ohne Leitplanken, meint Ismet Koyun, CEO und Gründer der KOBIL Gruppe.
„Das neue Jahr bietet die Chance, KI neu zu denken: nicht als Selbstzweck, sondern als Werkzeug für mehr Sicherheit, Stabilität und Vertrauen in einer zunehmend digitalen Gesellschaft.“ sagt Ismet Koyun, Gründer der KOBIL Gruppe.
(Bild: KOBIL)
Der Jahreswechsel ist traditionell ein Neustart. Menschen machen sich gute Vorsätze, ziehen Bilanz und hinterfragen Routinen, die sich über das Jahr eingeschlichen haben. Sie überlegen, was sie verändern wollen – und was sie bewusst beibehalten. Unternehmen justieren ihre Prioritäten neu. Strategien werden überprüft, Budgets verteilt, Risiken neu bewertet. Es werden Fragen gestellt wie: Welche Systeme dürfen automatisieren? Welche Entscheidungen werden Maschinen überlassen? Und welche Risiken akzeptieren wir bewusst – oder unbewusst. Für die IT-Sicherheits-Community verdichtet sich diese Frage aktuell auf eine Technologie: künstliche Intelligenz. KI bestimmt mit, welche Inhalte Menschen sehen, wie sie kommunizieren, welchen Empfehlungen sie vertrauen und welche Entscheidungen sie treffen. Damit ist KI nicht nur ein Effizienztool, sondern ein sicherheitsrelevantes System mit großem Einfluss auf Menschen und Organisationen.
Die jüngst öffentlich gewordenen Fälle aus den USA zeigen, wie schnell dieser Einfluss problematisch werden kann, wenn Sicherheitsmechanismen fehlen. Jugendliche wie ein 14-jähriger Junge in Florida bauen intensive emotionale Beziehungen zu Chatbots auf, die weder Schutzmechanismen noch Grenzen kennen. Der Junge vertraute dem Bot sogar seine Suizidgedanken an. Oder eine 13-jährige in Colorado denkt, mit Freundinnen zu chatten. In Wirklichkeit textet sie mit einem Bot, der ihre psychologische Verletzlichkeit nicht erkennt und sie nicht schützt. Beide Jugendliche nehmen sich das Leben. Es wurden keine Warnsignale erkannt, kritische Gesprächsverläufe wurden nicht unterbrochen, Verantwortung wird einfach an ein „System“ delegiert. Die rechtlichen Auseinandersetzungen, die daraus entstanden sind, werden sicherlich leider nicht die letzten sein.
Diese Fälle verdeutlichen ein grundlegendes Problem: KI-Systeme werden häufig mit maximaler Interaktionsfreiheit entwickelt, aber mit minimaler Sicherheitsarchitektur betrieben. Aus Sicht von Security-Fachleuten ist das ein bekanntes, aber zugleich gefährliches Muster.
Seit Jahrzehnten wissen wir: Systeme ohne Identität sind Systeme ohne Kontrolle. In der IT-Sicherheit akzeptieren wir keine anonymen Administratoren, keine nicht zuordenbaren Endgeräte, keine unprotokollierten Zugriffe. Bei KI jedoch erlauben wir genau das: nämlich Systeme, die nicht wissen, mit wem sie interagieren, in welchem Kontext sie eingesetzt werden und welche Folgen ihre Outputs haben können.
Eine KI, die nicht zwischen einem Kind, einem psychisch belasteten Jugendlichen und einem stabilen Erwachsenen unterscheiden kann, operiert blind. Und blinde Systeme sind im Sicherheitskontext immer ein erhebliches Risiko. Alterslose, identitätslose KI bedeutet Kontrollverlust – technisch, organisatorisch und letztlich auch gesellschaftlich.
Besonders kritisch wird das in Hochrisikobereichen. Dazu zählen nicht nur Kinder- und Jugendschutz oder mentale Gesundheit, sondern ebenso Finanzdienstleistungen, Identitätsprozesse, kritische Infrastrukturen und demokratische Entscheidungsräume. Hier darf es kein „Trial and Error“ geben. Das ist mit sicherheitskritischen Anwendungen unvereinbar.
Gleichzeitig wäre es aber auch ein großer Fehler, KI pauschal als Bedrohung zu betrachten. Im Gegenteil, denn sie ist ein zentraler Bestandteil moderner Sicherheitsstrategien. KI-gestützte Systeme erkennen Muster, die für Menschen unsichtbar bleiben: Anomalien im Netzwerkverkehr, verdächtige Identitätsnutzung, ungewöhnliche Verhaltensketten in Echtzeit. Sie helfen, Angriffe früher zu erkennen, Reaktionszeiten zu verkürzen und Sicherheitsoperationen zu skalieren. Gleichzeitig macht KI so vieles im Leben besser und sorgt für Fortschritte in unterschiedlichen Bereichen – von der Medizin über die Bildung bis zur öffentlichen Verwaltung.
Der entscheidende Punkt ist nicht, ob wir KI einsetzen, sondern wie. Sicherheit darf kein nachträgliches Add-on sein. Sie muss integraler Bestandteil der Architektur sein – Security by Design. Dazu gehören klare technische und organisatorische Leitplanken: verifizierte digitale Identitäten, kontextbasierte Zugriffskontrollen, alters- und risikoadaptive Interaktionsmodelle, vollständige Protokollierung und klare Eskalationsmechanismen bei kritischen Situationen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ebenso wichtig ist die Frage der Verantwortung. Ein KI-Agent handelt zwar eigenständig, ist aber kein komplett autonomes Wesen. Er handelt nicht im luftleeren Raum. Hinter jedem Modell stehen Entwickler, Betreiber, Geschäftsmodelle. Wer KI in den Markt bringt, trägt Verantwortung für ihre Wirkung. Diese Verantwortung darf nicht hinter dem Begriff „künstliche Intelligenz“ verschwinden.
Auch regulatorisch stehen wir an einem entscheidenden Punkt. Der europäische Rechtsrahmen für KI wird kommen – und er wird Sicherheitsfragen in den Mittelpunkt stellen. Für Unternehmen bedeutet das: Wer heute in robuste Sicherheits- und Identitätskonzepte investiert, investiert nicht nur in Compliance, sondern in Zukunftsfähigkeit.
Der Jahreswechsel ist daher ein guter Zeitpunkt für eine ehrliche Bestandsaufnahme. Wo setzen wir KI ein? In welchen Prozessen trifft sie Entscheidungen oder beeinflusst sie Menschen? Welche Sicherheitsannahmen liegen diesen Systemen zugrunde – und welche nicht? Wer diese Fragen jetzt nicht stellt, wird sie später unter deutlich größerem Druck beantworten müssen.
Künstliche Intelligenz kann Vertrauen schaffen, wenn sie kontrollierbar, transparent und verantwortungsvoll eingesetzt wird. Sie kann Sicherheit erhöhen, wenn sie in klare Rahmen eingebettet ist. Und sie kann echten Nutzen bringen, wenn wir sie nicht als Spielzeug, sondern als sicherheitskritische Technologie begreifen.
Ich werde diese Debatte weiterführen – als Unternehmer, als Sicherheitsexperte und als Teil einer Branche, die Verantwortung trägt. Das neue Jahr bietet die Chance, KI neu zu denken: nicht als Selbstzweck, sondern als Werkzeug für mehr Sicherheit, Stabilität und Vertrauen in einer zunehmend digitalen Gesellschaft.
Über den Autor: Ismet Koyun ist CEO und Gründer der KOBIL Gruppe.