Deepfakes und KI machen Stimmen, Gesichter und Verhalten beliebig fälschbar. Als letzter unveränderbarer Beweis rückt DNA in den Fokus digitaler Authentifizierung – mit Chancen, aber auch enormen Risiken.
DNA gilt als nicht manipulierbarer Herkunftsnachweis – doch ihr Einsatz als Identitätsanker wirft gravierende Sicherheits- und Datenschutzfragen auf.
Die Biometrie steht am Abgrund. Deepfakes pulverisieren die visuelle Echtheit. Stimmen sind synthetisch, Bewegungen generiert, Verhalten statistisch modellierbar. Was bleibt, ist der Ursprung selbst, ein Datensatz aus Basenpaaren. DNA als letzter verifizierbarer Beweis, dass hinter einer Identität ein Mensch steht.
Biometrie war gestern, der Ursprung wird entscheidend
Digitale Identität ist kein Passwort. Kein Zertifikat, kein Login-Token, kein Attribut im LDAP. Identität ist ein Ursprung. Und dieser Ursprung lässt sich, wenn überhaupt, nur noch über ein einziges Merkmal mit letzter Gewissheit belegen: DNA. Was auf den ersten Blick nach dystopischem Größenwahn klingt, liegt längst in greifbarer Nähe. Wer einmal seine Rohdaten bei einem Gentestdienst heruntergeladen hat, erkennt sofort die Struktur: ein String aus Sequenzen, maschinenlesbar, komprimierbar, integrierbar. Ein Megabyte Code, nicht veränderbar, nicht generierbar, nicht löschbar.
Kopierbar wie ein Fingerabdruck, angreifbar wie jede Ressource
Die Vorstellung, DNA als Identitätsmerkmal zu verwenden, provoziert vor allem in Deutschland reflexartige Ablehnung. Seit der Chaos Computer Club 2008 demonstrierte, wie sich der Fingerabdruck eines Bundesministers reproduzieren lässt, gilt Biometrie nicht mehr als unantastbar. DNA verschärft die Lage. Sie ist präziser, umfassender, umfassend vererbbar, und damit ein potenzielles Einfallstor für Angriffe auf ganze Familienstrukturen. Wer seine Daten einem Testanbieter überlässt, stellt nicht nur sich selbst offen, sondern gleich das genetische Profil.
Datensilos ohne Rückfahrkarte, DNA in den Händen der Privatwirtschaft
Eine ARTE-Dokumentation zum DNA-Business lässt keinen Zweifel: Unternehmen wie 23andMe, Ancestry oder MyHeritage verfügen über Millionen vollständiger Gensequenzen, gespeichert, ausgewertet, kategorisiert. Und oft kaum reguliert. Wenn einer dieser Anbieter bankrottgeht oder übernommen wird, wandern die Profile. Wohin, ist unklar. Die Käufer sitzen nicht selten in der Versicherungswirtschaft, der Pharmaindustrie oder im US-Gesundheitsapparat. Wer heute einen DNA-Test macht, riskiert morgen algorithmisch selektiert zu werden, für Tarife, Policen oder Zugangschancen.
Authentizität in einer Welt generierter Gesichter
Die Grenze zwischen Mensch und Maschine ist bereits gefallen. Gesichter lassen sich in Sekundenschnelle synthetisieren. Stimmen imitieren, Bewegungsprofile simulieren, Text- und Sprachverhalten fälschen. Agenten-KI erzeugt Interaktionen, Inhalte, Identitäten. Der Mensch ist visuell und semantisch nicht mehr unterscheidbar. Wenn jede äußere Schicht manipuliert werden kann, bleibt nur die Herkunft, und damit die DNA, als letzter nicht-generierbarer Beweis für Menschlichkeit.
Die klassische IAM-Architektur kollabiert an dieser Komplexität. Eine Identity Fabric, die auch maschinelle Identitäten, Bots, Agenten-KI und hybride Rollenmodelle kontrollieren soll, braucht mehr als Rollen und Rechte. Es braucht Herkunftsnachweise. Wer eine digitale Identität erzeugt, muss rückverfolgbar sein. Dass KI-Objekte nicht von anderen KI-Objekten erzeugt werden dürften, ist kein ethisches Prinzip, sondern eine Sicherheitsnotwendigkeit. Jeder digitale Akteur muss einem biologisch nachweisbaren Menschen zugeordnet sein. Ohne diesen Anker entsteht ein Verantwortlichkeitsvakuum.
Nichtmenschliche Identitäten brauchen Governance, nicht Autonomie
Maschinelle Identitäten sind keine Nutzer, sie sind Objekte. Sie besitzen keine Rechte, keine Pflichten, keine Strafbarkeit. Wer ihnen Handlungsfähigkeit verleiht, muss Kontrolle und Löschung absichern. Just-in-time-Identitäten sind technisch denkbar, operativ sinnvoll, aber nur unter der Bedingung, dass ihr Ursprung ein verifizierter Mensch ist. Das ist kein Science-Fiction-Konzept, sondern die logische Konsequenz wachsender Automatisierung. Maschinen mit Zugriff auf geschützte Ressourcen ohne menschliche Haftung erzeugen ein Governance-freies Feld. Der Schaden ist nicht hypothetisch, sondern systemisch.
Ein Teil der Dynamik entfaltet sich jenseits der Technologie, im organisatorischen Vakuum. Unternehmen verfügen heute über tausende nichtmenschliche Identitäten, von Skripten über Bots bis zu vollständig agentischer KI. Oft sind sie nicht dokumentiert, nicht zugewiesen, nicht inventarisiert. Die logische Antwort darauf ist strukturell: ein eigenes „Non-Human Resources Department“. Ein Governance-Modul, das Ownership, Zweckbindung und Lebenszyklus maschineller Identitäten steuert. Ohne diese Einheit bleibt unklar, wer für welche automatisierte Entscheidung verantwortlich ist, und wann eine solche Identität gelöscht oder ersetzt werden muss. Die Trennung zwischen Mensch und System muss nicht nur technisch, sondern auch organisatorisch operationalisiert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
DNA als Signatur der Realität und regulatorisches Druckmittel
eIDAS 2.0, digitale Wallets, Blockchain-basierte Identitätsverifikation: All das greift zu kurz, wenn die zugrunde liegende Identität nicht als menschlich belegbar gilt. Fotos sind fälschbar. Stimmen ebenfalls. Selbst Videoaufzeichnungen liefern keinen Beweis für Authentizität. Eine verifizierte DNA-Signatur wäre dagegen ein objektives Merkmal, das nicht von generativer KI erzeugt werden kann. Noch nicht. Und doch reicht diese Option nicht aus, solange sie nicht von Infrastruktur und Governance flankiert wird. IAM-Systeme müssen vorbereitet sein. Wer morgen mit DNA arbeitet, muss heute festlegen, wer solche Attribute verwaltet, wer Zugriff erhält, wer sie widerrufen darf, und was passiert, wenn sie kompromittiert werden.
Verantwortung ist nicht delegierbar, auch nicht an Technologie
Bereits jetzt ist die Unterscheidung zwischen Mensch und System kein ethisches Detail, sondern eine betriebliche Überlebensfrage. Nur wo ein Mensch als Eigentümer und Ursprung identifiziert werden kann, lässt sich Haftung, Verantwortung, Kontrolle durchsetzen. Alles andere ist Simulation. Und die skaliert schneller als jede Governance-Struktur.
Die Verwendung von DNA ist unbequem. Aber sie ist unausweichlich. Wer ernsthaft verhindern will, dass morgen synthetische Identitäten in Form von autonomen Maschinen Netzwerke, Plattformen und Organisationen infiltrieren, braucht ein Attribut, das nicht imitierbar ist. Eine Tatsache, die man nicht ignorieren sollte. Eine Künstliche Intelligenz kann man nicht vor Gericht gestellt werden. Sie schon.