Anthropics KI-Modell Claude Mythos hat die IT-Security-Branche aufgerüttelt. Das neue Modell hat in kürzester Zeit Tausende zuvor unbekannter Schwachstellen in gängigen Betriebssystemen und Browsern gefunden. Anthropic hält Mythos bewusst unter Verschluss, weil es die Balance zwischen Angriff und Verteidigung kippen kann. Prof. Dr. Dennis-Kenji Kipker ordnet in diesem Gastkommentar ein, warum das kein technischer Fortschritt mehr ist, sondern ein Bruch mit allem, was wir bisher als digitale Sicherheit verstanden haben.
Mit KI-Modellen wie Mythos von Anthropic beginnt eine Zäsur: Die digitale Sicherheit, wie wir sie kennen, ist definitiv vorbei.
Wer die Nachrichten der vergangenen Wochen liest, ahnt, dass wir gerade einen Punkt überschreiten, hinter den es kein Zurück gibt. Mit KI-Modellen wie Mythos von Anthropic, Anfang April 2026 vorgestellt, ist eine Klasse Künstlicher Intelligenz entstanden, die in kürzester Zeit Tausende zuvor unbekannter Sicherheitslücken in jedem gängigen Betriebssystem und Browser gefunden hat, teils in Code, der seit Jahrzehnten im Einsatz ist. Anthropic selbst hält das Modell derzeit bewusst unter Verschluss, weil es die Balance zwischen Angriff und Verteidigung kippen kann. Deshalb ist das auch keine rein technische Evolution mehr, sondern ein Bruch mit einem System, das wir lange Jahre als unseren Standard akzeptiert haben.
Natürlich reden wir weiter über technisch-organisatorische Schutzkonzepte, über Managementsysteme, über Regularien und verbindliche Regelwerke zur Cybersicherheit wie NIS2, DORA, CRA. Das muss sein. Aber es ist nur die eine Seite der Medaille. Die andere, weit gravierendere, ist, dass die Produkte, auf denen unsere (kritischen) Infrastrukturen laufen, in sich zu häufig unsicher sind und wir als Anwender auf deren Sicherheit nur wenig Einfluss haben. Die Software-Lieferkette ist seit Jahren hochvulnerabel, wird regelmäßig erfolgreich ausgenutzt, und sie ist in vielen Fällen alles andere als sicher designt. Wir managen auf Sand gebaute Systeme, während die Flut an Bedrohungen immer weiter und schneller steigt.
Security by Design: richtig, aber viel zu spät
Security by Design – also die Integration von digitalen Sicherheitsanforderungen direkt in die Produktentwicklung – mag in diesen Zeiten zwar das richtige Prinzip sein, unumstritten. In Anbetracht des Tempos, mit dem sich die Bedrohungslage überschlägt, wirkt es aber mehr und mehr wie ein Tropfen auf den heißen Stein. Wir setzen Security by Design gerade erst um, während unsere kritischen Infrastrukturen weiter auf Legacy-Architekturen laufen, die vor Jahrzehnten ohne jeden digitalen Sicherheitsanspruch entstanden sind, teils noch nicht einmal Vernetzung kannten. Die Regulierung von verbindlichen Sicherheitsanforderungen für Software kommt, wenn der Brand längst lodert. Was als Schutzschirm gedacht war, fühlt sich daher immer mehr an wie ein später, hilfloser Reflex in einer Lage, die sich gefühlt im Tagesrhythmus verschärft.
Jahrelang wurde überdies diskutiert, ob KI im Cybersecurity-Saldo eher Verteidigern oder Angreifern in die Hände spielt. Diese Debatte ist nun scheinbar auch bald vorbei. Mit Modellen wie Mythos ließe sich IT schneller stören und zerstören, als uns lieb sein kann und wir in mühevoller Kleinarbeit zunächst verhindern können. Denn was für Cyberkriminelle bislang in vielen Fällen immer noch mühsame Handarbeit war, das Finden, Verketten und Ausnutzen von Schwachstellen, auch das Vermarkten, wird mehr und mehr automatisierbar, skalierbar, beliebig und für jedermann ohne großes Know-how möglich. Cyberunsicherheit wird industrialisiert, und das bedeutet: Der Angreifer gewinnt Zeit, der Verteidiger verliert sie. Und Zeit ist in der Cybersicherheit eine der wenigen Währungen, die wirklich zählt, und von der wir schon immer zu wenig hatten und in Zukunft vermutlich noch weniger haben werden.
KI-Verbote laufen ins Leere
Die Versuchung, solche KI-Modelle deshalb regulatorisch einzuhegen oder zu verbieten, ist verständlich. Sie führt aber im Ergebnis nirgends hin, denn Anthropic ist bei Weitem nicht die einzige KI-Schmiede – und damit werden letztlich auch diejenigen Beschwichtigungen entkräftet, es würde sich ausschließlich um strategischen und gut positionierten Marketing-Schachzug eines einzelnen Unternehmens handeln. Denn andere westliche Labore arbeiten getrieben durch den massiven Wettbewerbsdruck und Venture Capital-Investitionen, teils öffentlichen Förderungen an Vergleichbarem, und staatliche Akteure wie die Volksrepublik China investieren nicht nur in Rechenkapazitäten, sondern in ganze Energienetze, um KI-Rechenleistung überhaupt betreiben zu können und immer leistungsfähiger zu werden. Selbst wenn der Einsatz offensiver KI weltweit kriminalisiert würde – was politisch allein schon eine enorme zivilisatorische Errungenschaft wäre –, werden Staaten solche Werkzeuge einsetzen, offen oder im Verborgenen. Das lässt sich politisch nicht verhindern, bestenfalls nur noch gestalten. Somit dürfte es perspektivisch im Ergebnis auch nur wenig bringen, wenn Anthropic heute beschwört, das Tool nicht öffentlich zugänglich machen zu wollen, denn schon jetzt arbeiten private und staatliche Akteure in Sachen Cybercrime international intensiv zusammen.
Damit dürfte sich nicht zuletzt auch der klassische Umgang mit Schwachstellen gravierend verändern. Wenn Sicherheitslücken nicht mehr in wochenlanger Forschungsarbeit gefunden, sondern durch KI massenhaft produziert werden, sind sie kein knappes Gut mehr, sondern allgemein verfügbare Massenware. Bug-Bounty-Modellen, Responsible Disclosure, der ganzen Ökonomie des verantwortungsvollen Umgangs mit Lücken wird damit nach und nach ihre Grundlage entzogen. Denn wer die Kontrolle über die leistungsfähigsten KI-Systeme hat, hat auch die Kontrolle über die Schwachstellen, und damit über die Sicherheit im digitalen Raum insgesamt und weltweit, weil viele Produkte staaten- und systemübergreifend eingesetzt werden. Das ist eine Machtverschiebung, deren Tragweite wir erst zu erahnen beginnen, und sie vollzieht sich nicht erst in Jahren, sondern in Monaten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI als nationale Sicherheitsfrage
Damit ist klar: KI ist mehr als eine Frage industrieller Souveränität oder nationaler Wertschöpfung, worauf sie in der politischen Debatte immer wieder gerne reduziert wird. Sie ist ein massiver Faktor nationaler und internationaler Sicherheit, in einer Zeit, in der Sicherheit auch ohne KI zu einem immer knapperen Gut wird. Die geopolitische Lage von der Ukraine bis in den Nahen Osten zeigt, wie dünn die belastbare Schicht mittlerweile geworden ist, auf der wir gesamtgesellschaftlich stehen und auf der unser gesamtes zivilisatorisches Fundament fußt. Die KI legt sich wie eine zweite Sollbruchstelle darüber, und wer künftig die Modelle kontrolliert, kontrolliert einen zentralen Hebel staatlicher, wirtschaftlicher und gesellschaftlicher Handlungsfähigkeit.
Die KI-Disruption hat uns in kurzer Zeit regelrecht überschwemmt. Sie nimmt uns die Luft zum Atmen, weil wir mit jedem Tag und jeder Woche zu neuen Getriebenen werden. Mythos ist nur ein Name unter vielen, die noch folgen werden. Wohin dieser Weg uns in den kommenden Monaten und Jahren führt, ist ungewiss. Sicher ist nur: Die Zeit, in der digitale Sicherheit ein (behördlich) verwaltbares Thema war, neigt sich damit dem Ende zu. Was jetzt gerade erst beginnt, ist kein weiterer Zyklus, sondern ein Kampf um die Grundlagen unseres digitalen Raums und damit auch unserer eigenen physischen Existenz.
Prof. Dr. Dennis-Kenji Kipker studierte Rechtswissenschaft und Informatik und forscht als wissenschaftlicher Direktor des Cyberintelligence Institute auch zu digitaler Resilienz im Kontext globaler Krisen mit einem Schwerpunkt auf chinesisches und US-amerikanisches IT-Recht. In dieser Funktion berät er die Bundesregierung, die Europäische Kommission und Unternehmen.