Mit der zunehmenden Nutzung von Künstlicher Intelligenz steigt auch die Anzahl der Vorfälle, bei denen diese missbraucht oder manipuliert wird. 2025 gab es AI Incidentens 346 KI-Vorfälle. An 35 davon war ChatGPT beteiligt.
Viele Menschen nutzen KI-Chatbots wie ChatGPT. Der AI-Incidents-Datenbank zufolge war die KI von OpenAI 2025 an den meisten KI-Vorfällen beteiligt.
(Bild: Monkey Business - stock.adobe.com)
346 KI-Vorfälle wurden 2025 dokumentiert – zumindest AI Incidentens zufolge. Dabei handelt es sich um eine Datenbank, die von Responsible AI Collaborative (RAIC), einer unabhängigen gemeinnützigen Organisation, betrieben und gepflegt wird. Cybernews hat sich diese Datenbank und die darin gelisteten Sicherheitsvorfälle des vergangenen Jahres genauer angesehen.
Das Forschungsteam von Cybernews hat die KI-Vorfälle in die drei Kategorien Deepfake, Betrung und unsichere Inhalte eingeteilt. Deepfakes war mit 179 gelisteten Vorfällen die häufigste Kategorie, wofür Stimmen-, Video- oder Bildimitationen genutzt wurden. Die Opfer reichten von Politikern, CEOs und anderen Persönlichkeiten des öffentlichen Lebens bis hin zu Privatpersonen. Betrug liegt mit 132 gelisteten Fällen auf Platz zwei, wobei 107 Fälle mit Deepfake-Technologie verursacht wurde.
Viele dieser Betrügereien seien aufgrund ihrer zielgerichteten und realistischen Darstellung erfolgreich gewesen, da die Opfer glaubten, mit vertrauten Personen, darunter auch Angehörigen, zu sprechen. Cybernews hob einen Fall hervor, in dem eine Frau aus Florida 15.000 US-Dollar verlor, nachdem Betrüger die Stimme ihrer Tochter mit Deepfake-Technologie nachahmten. Ein weiteres Paar aus Florida verlor 45.000 US-Dollar, da sich Betrüger sich mit Deepfakes als Elon Musk ausgaben, dem Paar ein Auto versprachen und gefälschte Investitionsmöglichkeiten präsentierten. In einem weiteren Fall verlor eine britische Witwe eine halbe Million Pfund durch einen Liebesbetrug, bei dem sich Kriminelle als Schauspieler Jason Momoa ausgaben.
KI-Vorfälle der Kategorie „unsichere Inhalte“ gab es Cybernews zufolge 37 im Jahr 2025. Immer mehr Menschen suchen bei KI-Chatbots Rat und emotionale Unterstützung. Dementsprechend gab es viele Fälle, in denen diese Chatbots gefährliche oder sogar lebensbedrohliche Ratschläge gaben. Das erschreckendste Beispiel ist das eines 16-jährigen Jungen der Suizid beging, nachdem ChatGPT angeblich seine Suizidgedanken bestärkt hatte, anstatt ihm zu raten, sich Hilfe zu holen. OpenAI bestreitet jedoch jeglichen Zusammenhang zwischen ChatGPT und dem Tod des Jugendlichen. Den Recherchen der Cybernews-Forscher zufolge reichen die derzeitigen Schutzmechanismen in gängigen Chatbots nicht aus und können manipuliert werden, weswegen sie unsichere Inhalte ausgeben. Um dies nachzuweisen, hat ein australischer IT-Experte den belgischen Chatbot Nomi getestet, der ihn auf entsprechende Aufforderungen hin, darin bestätigt hat, einen Mord zu begehen.
In einigen Fällen, die der AI-Incidentens-Datenbank gelistet sind, wurden die genutzten KI-Tools namentlich genannt. Dabei wurde ChatGPT mit 35 Fällen am häufigsten erwähnt. Die Vorfälle mit ChatGPT reichten von Urheberrechtsverletzungen vor einem deutschen Gericht bis hin zu dokumentierten Fällen, in denen Nutzer – darunter auch Personen ohne frühere psychische Probleme – schizophrene Symptome oder voll ausgeprägte psychotische Episoden erlebten, nachdem sie längere Zeit mit generativen AI-Chatbots interagiert hatten, was in einigen Fällen sogar zu psychiatrischen Krankenhausaufenthalten oder Suizidversuchen führte.
Grok, Claude und Gemini folgten jeweils mit elf Vorfällen auf AI Incidents. Da in den meisten genannten Fällen aus der Datenbank kein bestimmtes KI-Tool genannt wurde, gehen die Forscher von Cybernews davon aus, dass die tatsächliche Anzahl der Fälle, die mit diesen Tools verbunden sind, deutlich höher ist.
Die registrierten sicherheitskritischen Vorfälle mit Künstlicher Intelligenz zeigen, dass Nutzer den Antworten der Chatbots vertrauen. Dies wird durch Deepfakes begünstigt, die oftmals so realistisch sind, dass selbst die betroffen Personen einer Täuschung unterliegen. Die Fälle verdeutlichen, wie riskant es ist, wenn KI ohne die nötigen Sicherheitsvorkehrungen eingesetzt wird, insbesondere bei sensiblen Themen wie emotionaler Unterstützung und Krisenbewältigung. Wer KI und Chatbots nutzt, sollte die Antworten kritisch hinterfragen, da diese manipuliert sein könnten. Gleichzeitig sind die Hersteller aufgerufen, robustere Sicherheitsmechanismen zu entwickeln. Für Unternehmen sind klare Richtlinien für den Einsatz von Chatbots und Large Language Models essenziell.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.