Gastkommentar von Ismet Koyun, CEO und Gründer der KOBIL Gruppe Mit verantwortungsvoller und intelligenter KI ins neue Jahr

Ein Gastkommentar von Ismet Koyun 4 min Lesedauer

Anbieter zum Thema

KI entscheidet mit, welche Inhalte Menschen sehen, welche Empfehlungen sie glauben und welche Prozesse Unternehmen automatisieren. 2026 muss sie deshalb wie eine sicherheitskritische Technologie behandelt werden: mit verifizierten Identitäten, Security by Design und klaren Ver­ant­wort­lich­kei­ten, statt maximaler Interaktionsfreiheit ohne Leitplanken, meint Ismet Koyun, CEO und Gründer der KOBIL Gruppe.

„Das neue Jahr bietet die Chance, KI neu zu denken: nicht als Selbstzweck, sondern als Werkzeug für mehr Sicherheit, Stabilität und Vertrauen in einer zunehmend digitalen Gesellschaft.“ sagt Ismet Koyun, Gründer der KOBIL Gruppe.(Bild:  KOBIL)
„Das neue Jahr bietet die Chance, KI neu zu denken: nicht als Selbstzweck, sondern als Werkzeug für mehr Sicherheit, Stabilität und Vertrauen in einer zunehmend digitalen Gesellschaft.“ sagt Ismet Koyun, Gründer der KOBIL Gruppe.
(Bild: KOBIL)

Der Jahreswechsel ist traditionell ein Neustart. Menschen machen sich gute Vorsätze, ziehen Bilanz und hinterfragen Routinen, die sich über das Jahr eingeschlichen haben. Sie überlegen, was sie verändern wollen – und was sie bewusst beibehalten. Unternehmen justieren ihre Prioritäten neu. Strategien werden überprüft, Budgets verteilt, Risiken neu bewertet. Es werden Fragen gestellt wie: Welche Systeme dürfen automatisieren? Welche Entscheidungen werden Maschinen überlassen? Und welche Risiken akzeptieren wir bewusst – oder unbewusst. Für die IT-Sicherheits-Community verdichtet sich diese Frage aktuell auf eine Technologie: künstliche Intelligenz. KI bestimmt mit, welche Inhalte Menschen sehen, wie sie kommunizieren, welchen Empfehlungen sie vertrauen und welche Entscheidungen sie treffen. Damit ist KI nicht nur ein Effizienztool, sondern ein sicherheitsrelevantes System mit großem Einfluss auf Menschen und Organisationen.

Die jüngst öffentlich gewordenen Fälle aus den USA zeigen, wie schnell dieser Einfluss problematisch werden kann, wenn Sicherheitsmechanismen fehlen. Jugendliche wie ein 14-jähriger Junge in Florida bauen intensive emotionale Beziehungen zu Chatbots auf, die weder Schutzmechanismen noch Grenzen kennen. Der Junge vertraute dem Bot sogar seine Suizidgedanken an. Oder eine 13-jährige in Colorado denkt, mit Freundinnen zu chatten. In Wirklichkeit textet sie mit einem Bot, der ihre psychologische Verletzlichkeit nicht erkennt und sie nicht schützt. Beide Jugendliche nehmen sich das Leben. Es wurden keine Warnsignale erkannt, kritische Gesprächsverläufe wurden nicht unterbrochen, Verantwortung wird einfach an ein „System“ delegiert. Die rechtlichen Auseinandersetzungen, die daraus entstanden sind, werden sicherlich leider nicht die letzten sein.

Diese Fälle verdeutlichen ein grundlegendes Problem: KI-Systeme werden häufig mit maximaler Interaktionsfreiheit entwickelt, aber mit minimaler Sicherheitsarchitektur betrieben. Aus Sicht von Security-Fachleuten ist das ein bekanntes, aber zugleich gefährliches Muster.

Seit Jahrzehnten wissen wir: Systeme ohne Identität sind Systeme ohne Kontrolle. In der IT-Sicherheit akzeptieren wir keine anonymen Administratoren, keine nicht zuordenbaren Endgeräte, keine unprotokollierten Zugriffe. Bei KI jedoch erlauben wir genau das: nämlich Systeme, die nicht wissen, mit wem sie interagieren, in welchem Kontext sie eingesetzt werden und welche Folgen ihre Outputs haben können.

Eine KI, die nicht zwischen einem Kind, einem psychisch belasteten Jugendlichen und einem stabilen Erwachsenen unterscheiden kann, operiert blind. Und blinde Systeme sind im Sicherheitskontext immer ein erhebliches Risiko. Alterslose, identitätslose KI bedeutet Kontrollverlust – technisch, organisatorisch und letztlich auch gesellschaftlich.

Besonders kritisch wird das in Hochrisikobereichen. Dazu zählen nicht nur Kinder- und Jugendschutz oder mentale Gesundheit, sondern ebenso Finanzdienstleistungen, Identitätsprozesse, kritische Infrastrukturen und demokratische Entscheidungsräume. Hier darf es kein „Trial and Error“ geben. Das ist mit sicherheitskritischen Anwendungen unvereinbar.

Gleichzeitig wäre es aber auch ein großer Fehler, KI pauschal als Bedrohung zu betrachten. Im Gegenteil, denn sie ist ein zentraler Bestandteil moderner Sicherheitsstrategien. KI-gestützte Systeme erkennen Muster, die für Menschen unsichtbar bleiben: Anomalien im Netzwerk­verkehr, verdächtige Identitätsnutzung, ungewöhnliche Verhaltensketten in Echtzeit. Sie helfen, Angriffe früher zu erkennen, Reaktionszeiten zu verkürzen und Sicherheitsoperationen zu skalieren. Gleichzeitig macht KI so vieles im Leben besser und sorgt für Fortschritte in unterschiedlichen Bereichen – von der Medizin über die Bildung bis zur öffentlichen Verwaltung.

Der entscheidende Punkt ist nicht, ob wir KI einsetzen, sondern wie. Sicherheit darf kein nachträgliches Add-on sein. Sie muss integraler Bestandteil der Architektur sein – Security by Design. Dazu gehören klare technische und organisatorische Leitplanken: verifizierte digitale Identitäten, kontextbasierte Zugriffskontrollen, alters- und risikoadaptive Interaktionsmodelle, vollständige Protokollierung und klare Eskalationsmechanismen bei kritischen Situationen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ebenso wichtig ist die Frage der Verantwortung. Ein KI-Agent handelt zwar eigenständig, ist aber kein komplett autonomes Wesen. Er handelt nicht im luftleeren Raum. Hinter jedem Modell stehen Entwickler, Betreiber, Geschäftsmodelle. Wer KI in den Markt bringt, trägt Verantwortung für ihre Wirkung. Diese Verantwortung darf nicht hinter dem Begriff „künstliche Intelligenz“ verschwinden.

Auch regulatorisch stehen wir an einem entscheidenden Punkt. Der europäische Rechtsrahmen für KI wird kommen – und er wird Sicherheitsfragen in den Mittelpunkt stellen. Für Unternehmen bedeutet das: Wer heute in robuste Sicherheits- und Identitätskonzepte investiert, investiert nicht nur in Compliance, sondern in Zukunftsfähigkeit.

Der Jahreswechsel ist daher ein guter Zeitpunkt für eine ehrliche Bestandsaufnahme. Wo setzen wir KI ein? In welchen Prozessen trifft sie Entscheidungen oder beeinflusst sie Menschen? Welche Sicherheitsannahmen liegen diesen Systemen zugrunde – und welche nicht? Wer diese Fragen jetzt nicht stellt, wird sie später unter deutlich größerem Druck beantworten müssen.

Künstliche Intelligenz kann Vertrauen schaffen, wenn sie kontrollierbar, transparent und verantwortungsvoll eingesetzt wird. Sie kann Sicherheit erhöhen, wenn sie in klare Rahmen eingebettet ist. Und sie kann echten Nutzen bringen, wenn wir sie nicht als Spielzeug, sondern als sicherheitskritische Technologie begreifen.

Ich werde diese Debatte weiterführen – als Unternehmer, als Sicherheitsexperte und als Teil einer Branche, die Verantwortung trägt. Das neue Jahr bietet die Chance, KI neu zu denken: nicht als Selbstzweck, sondern als Werkzeug für mehr Sicherheit, Stabilität und Vertrauen in einer zunehmend digitalen Gesellschaft.

Über den Autor: Ismet Koyun ist CEO und Gründer der KOBIL Gruppe.

(ID:50663564)