Digitale Identitäten im Umbruch Warum DNA zum letzten Beweis digitaler Identität wird

Ein Gastkommentar von Alan Radford 4 min Lesedauer

Anbieter zum Thema

Deepfakes und KI machen Stimmen, Gesichter und Verhalten beliebig fälschbar. Als letzter unveränderbarer Beweis rückt DNA in den Fokus digitaler Authentifizierung – mit Chancen, aber auch enormen Risiken.

DNA gilt als nicht manipulierbarer Herkunftsnachweis – doch ihr Einsatz als Identitätsanker wirft gravierende Sicherheits- und Datenschutzfragen auf.(Bild: ©  Ahmed - stock.adobe.com)
DNA gilt als nicht manipulierbarer Herkunftsnachweis – doch ihr Einsatz als Identitätsanker wirft gravierende Sicherheits- und Datenschutzfragen auf.
(Bild: © Ahmed - stock.adobe.com)

Die Biometrie steht am Abgrund. Deepfakes pulverisieren die visuelle Echtheit. Stimmen sind synthetisch, Bewegungen generiert, Verhalten statistisch modellierbar. Was bleibt, ist der Ursprung selbst, ein Datensatz aus Basenpaaren. DNA als letzter verifizierbarer Beweis, dass hinter einer Identität ein Mensch steht.

Biometrie war gestern, der Ursprung wird entscheidend

Digitale Identität ist kein Passwort. Kein Zertifikat, kein Login-Token, kein Attribut im LDAP. Identität ist ein Ursprung. Und dieser Ursprung lässt sich, wenn überhaupt, nur noch über ein einziges Merkmal mit letzter Gewissheit belegen: DNA. Was auf den ersten Blick nach dystopischem Größenwahn klingt, liegt längst in greifbarer Nähe. Wer einmal seine Rohdaten bei einem Gentestdienst heruntergeladen hat, erkennt sofort die Struktur: ein String aus Sequenzen, maschinenlesbar, komprimierbar, integrierbar. Ein Megabyte Code, nicht veränderbar, nicht generierbar, nicht löschbar.

Kopierbar wie ein Fingerabdruck, angreifbar wie jede Ressource

Die Vorstellung, DNA als Identitätsmerkmal zu verwenden, provoziert vor allem in Deutschland reflexartige Ablehnung. Seit der Chaos Computer Club 2008 demonstrierte, wie sich der Fingerabdruck eines Bundesministers reproduzieren lässt, gilt Biometrie nicht mehr als unantastbar. DNA verschärft die Lage. Sie ist präziser, umfassender, umfassend vererbbar, und damit ein potenzielles Einfallstor für Angriffe auf ganze Familienstrukturen. Wer seine Daten einem Testanbieter überlässt, stellt nicht nur sich selbst offen, sondern gleich das genetische Profil.

Datensilos ohne Rückfahrkarte, DNA in den Händen der Privatwirtschaft

Eine ARTE-Dokumentation zum DNA-Business lässt keinen Zweifel: Unternehmen wie 23andMe, Ancestry oder MyHeritage verfügen über Millionen vollständiger Gensequenzen, gespeichert, ausgewertet, kategorisiert. Und oft kaum reguliert. Wenn einer dieser Anbieter bankrottgeht oder übernommen wird, wandern die Profile. Wohin, ist unklar. Die Käufer sitzen nicht selten in der Versicherungswirtschaft, der Pharmaindustrie oder im US-Gesundheitsapparat. Wer heute einen DNA-Test macht, riskiert morgen algorithmisch selektiert zu werden, für Tarife, Policen oder Zugangschancen.

Authentizität in einer Welt generierter Gesichter

Die Grenze zwischen Mensch und Maschine ist bereits gefallen. Gesichter lassen sich in Sekundenschnelle synthetisieren. Stimmen imitieren, Bewegungsprofile simulieren, Text- und Sprachverhalten fälschen. Agenten-KI erzeugt Interaktionen, Inhalte, Identitäten. Der Mensch ist visuell und semantisch nicht mehr unterscheidbar. Wenn jede äußere Schicht manipuliert werden kann, bleibt nur die Herkunft, und damit die DNA, als letzter nicht-generierbarer Beweis für Menschlichkeit.

Die klassische IAM-Architektur kollabiert an dieser Komplexität. Eine Identity Fabric, die auch maschinelle Identitäten, Bots, Agenten-KI und hybride Rollenmodelle kontrollieren soll, braucht mehr als Rollen und Rechte. Es braucht Herkunftsnachweise. Wer eine digitale Identität erzeugt, muss rückverfolgbar sein. Dass KI-Objekte nicht von anderen KI-Objekten erzeugt werden dürften, ist kein ethisches Prinzip, sondern eine Sicherheitsnotwendigkeit. Jeder digitale Akteur muss einem biologisch nachweisbaren Menschen zugeordnet sein. Ohne diesen Anker entsteht ein Verantwortlichkeitsvakuum.

Nichtmenschliche Identitäten brauchen Governance, nicht Autonomie

Maschinelle Identitäten sind keine Nutzer, sie sind Objekte. Sie besitzen keine Rechte, keine Pflichten, keine Strafbarkeit. Wer ihnen Handlungsfähigkeit verleiht, muss Kontrolle und Löschung absichern. Just-in-time-Identitäten sind technisch denkbar, operativ sinnvoll, aber nur unter der Bedingung, dass ihr Ursprung ein verifizierter Mensch ist. Das ist kein Science-Fiction-Konzept, sondern die logische Konsequenz wachsender Automatisierung. Maschinen mit Zugriff auf geschützte Ressourcen ohne menschliche Haftung erzeugen ein Governance-freies Feld. Der Schaden ist nicht hypothetisch, sondern systemisch.

Ein Teil der Dynamik entfaltet sich jenseits der Technologie, im organisatorischen Vakuum. Unternehmen verfügen heute über tausende nichtmenschliche Identitäten, von Skripten über Bots bis zu vollständig agentischer KI. Oft sind sie nicht dokumentiert, nicht zugewiesen, nicht inventarisiert. Die logische Antwort darauf ist strukturell: ein eigenes „Non-Human Resources Department“. Ein Governance-Modul, das Ownership, Zweckbindung und Lebenszyklus maschineller Identitäten steuert. Ohne diese Einheit bleibt unklar, wer für welche automatisierte Entscheidung verantwortlich ist, und wann eine solche Identität gelöscht oder ersetzt werden muss. Die Trennung zwischen Mensch und System muss nicht nur technisch, sondern auch organisatorisch operationalisiert werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

DNA als Signatur der Realität und regulatorisches Druckmittel

eIDAS 2.0, digitale Wallets, Blockchain-basierte Identitätsverifikation: All das greift zu kurz, wenn die zugrunde liegende Identität nicht als menschlich belegbar gilt. Fotos sind fälschbar. Stimmen ebenfalls. Selbst Videoaufzeichnungen liefern keinen Beweis für Authentizität. Eine verifizierte DNA-Signatur wäre dagegen ein objektives Merkmal, das nicht von generativer KI erzeugt werden kann. Noch nicht. Und doch reicht diese Option nicht aus, solange sie nicht von Infrastruktur und Governance flankiert wird. IAM-Systeme müssen vorbereitet sein. Wer morgen mit DNA arbeitet, muss heute festlegen, wer solche Attribute verwaltet, wer Zugriff erhält, wer sie widerrufen darf, und was passiert, wenn sie kompromittiert werden.

Verantwortung ist nicht delegierbar, auch nicht an Technologie

Bereits jetzt ist die Unterscheidung zwischen Mensch und System kein ethisches Detail, sondern eine betriebliche Überlebensfrage. Nur wo ein Mensch als Eigentümer und Ursprung identifiziert werden kann, lässt sich Haftung, Verantwortung, Kontrolle durchsetzen. Alles andere ist Simulation. Und die skaliert schneller als jede Governance-Struktur.

Die Verwendung von DNA ist unbequem. Aber sie ist unausweichlich. Wer ernsthaft verhindern will, dass morgen synthetische Identitäten in Form von autonomen Maschinen Netzwerke, Plattformen und Organisationen infiltrieren, braucht ein Attribut, das nicht imitierbar ist. Eine Tatsache, die man nicht ignorieren sollte. Eine Künstliche Intelligenz kann man nicht vor Gericht gestellt werden. Sie schon.

Über den Autor: Alan Radford ist Global Identity and Access Management Strategist bei One Identity.

(ID:50548689)