Kommentar von Michaela Lindenmayr, TU München Falschinformationen im Netz – und wie wir sie gemeinsam bekämpfen

Von Michaela Lindenmayr 5 min Lesedauer

Anbieter zum Thema

Digitale Plattformen, allen voran Social Media, ermöglichen es Individuen und Organisationen, eigene Inhalte zu erstellen und rasant innerhalb der Netzwerke zu streuen. Dabei unterliegen diese Inhalte keiner Prüfung, wodurch Falschinformationen veröffentlicht werden und eine Vielzahl von Menschen erreichen. Oft werden Falschinformationen erst erkannt, nachdem sie bereits Einfluss auf die Ansichten anderer Nutzer genommen haben – dabei machen die Reichweite von Plattformen sowie die rasante Geschwindigkeit einen großen Teil der Gefahr aus.

Die Autorin: Michaela Lindenmayr ist wissenschaftliche Mitarbeiterin an der Professur für Innovation & Digitalisierung (Prof. Dr. Jens Förderer) am Campus Heilbronn der TU München.(Bild:  Terzo Algeri/Fotoatelier M)
Die Autorin: Michaela Lindenmayr ist wissenschaftliche Mitarbeiterin an der Professur für Innovation & Digitalisierung (Prof. Dr. Jens Förderer) am Campus Heilbronn der TU München.
(Bild: Terzo Algeri/Fotoatelier M)

Manche Beispiele für Falschinformationen, wie das Bild von Papst Franziskus im weißen Daunenmantel, mögen auf den ersten Blick harmlos erscheinen. Dennoch verdeutlichen solche Bilder, wie bereits heute Technologien die Identifizierung von Falschinformationen erschweren – und wie die steigende Komplexität von Technologie in Zukunft dieses Problem verschärfen wird.

Gleichzeitig können Falschinformationen in anderen Bereichen bereits weitreichende Konsequenzen haben. Falschbehauptungen im Gesundheitswesen, wie beispielsweise, dass die Corona-Schutzimpfung unfruchtbar macht oder magnetische Microchips enthält, hatten starke Auswirkungen auf die Impfbereitschaft und dementsprechend die Ausbreitung der Pandemie. Solche Gefahren zeigen sich insbesondere in Krisenzeiten, Kriegen oder Wahlkämpfen, wo Desinformation zunimmt, und die öffentliche Meinung beeinflusst.

Wer profitiert von Falschinformationen?

Die Urheber von Falschinformationen bleiben oft anonym. Viele potenzielle Nutznießer sind möglich: Politische Akteure, die ihre Agenda vorantreiben wollen; Unternehmen, die gezielte Kampagnen starten, um ihre Interessen zu schützen oder Kunden zu gewinnen; oder öffentliche Organisationen, die bestimmte Narrative fördern möchten. Diese Interessengruppen können Falschinformationen entweder selbst verbreiten oder Dritte damit beauftragen. Damit wird eine gezielte Manipulation professionalisiert. Gleichzeitig wird ein großer Teil von Falschinformationen unwissentlich von Nutzern verbreitet, wenn diese den Informationswert als wichtig erachten und diesen nicht auf Echtheit prüfen.

Social Bots als Katalysator

Eine besondere Rolle nehmen auch sogenannte Social Bots ein – von Algorithmen gesteuerte Programme, die menschliches Verhalten imitieren und Informationen besonders effektiv verbreiten. Sie sind in der Lage, selbstständig Inhalte zu erstellen und mit ihnen zu interagieren. Dabei können Programme auf bestimmte Auslöser reagieren und so Aktionen ausführen. Sie können gezielt eingesetzt werden, um Botschaften zu verbreiten und Popularität vorzugeben, und unterliegen dabei keinen Ruhephasen. Steigt die empfundene Popularität von Falschinformationen und Propaganda, so steigt auch das Risiko, dass diese Inhalte fälschlicherweise als die breite öffentliche Meinung angenommen werden.

Das Ausmaß dieser Social Bots ist nur schwer auszumachen, da die steigende Komplexität solche Nutzer oftmals nicht von menschlichen Nutzern unterscheidbar macht. Während gutartige Bots zur Informationsaggregation und -verteilung, beispielsweise in Krisensituationen, in der Regel direkt als solche gekennzeichnet sind, sind die schädlichen Bots häufig besser getarnt – so entsteht eine Dunkelziffer.

Medienkompetenz als Schlüssel

Anstatt sich nur auf die Erkennung von Bots zu konzentrieren – die mit steigender technologischer Komplexität immer schwieriger wird und zudem nur reaktiv erfolgen kann – ist die Stärkung der Medienkompetenz der Nutzer entscheidend. Menschen müssen lernen, die Qualität von Informationen kritisch zu hinterfragen. Dazu gehört beispielsweise, die Herkunft der Informationen zu prüfen, die Seriosität der Quelle zu bewerten und ähnliche Informationen auf weiteren Kanälen zu suchen.

Daneben sind präventive Maßnahmen seitens der Bildungseinrichtungen oder öffentlichen Institutionen zielführend, welche eine solche Medienkompetenz stärken und Nutzer für Falschinformationen sensibilisieren. Bildungseinrichtungen sollten an Schulen und Universitäten den kritischen Umgang mit Medien lehren. Auch Einrichtungen in Fachgebieten wie Medizin und Gesundheit, in denen Falschinformationen besonders gefährliche Auswirkungen haben, könnten sich für Aufklärung stark machen und beispielsweise in Arztpraxen und Kliniken informative Materialien bereitstellen, um ihre Patienten zu sensibilisieren.

Die Rolle der Plattformen

Plattformbetreiber sollten gezielte Warnungen zu bestimmten Themen herausgeben und Qualitätsmechanismen einführen, um sicherzustellen, dass nur vertrauenswürdige Inhalte verbreitet werden. Mechanismen zur Qualitätssicherung, Vorselektion und Faktenprüfung können außerdem dazu beitragen, den Anteil vertrauenswürdiger Inhalte zu steigern, selbst wenn das zusätzlichen Aufwand und Kosten verursacht. Sind Falschinformationen erst einmal verbreitet, eignen sich verifizierte „Richtiginformationen“ als Gegenmittel, um den Prozess des Hinterfragens bei falsch informierten Personen zu unterstützen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Plattformen stehen außerdem vor der Herausforderung, zwischen nützlichen und schädlichen Bots zu unterscheiden. In Krisensituationen wie Naturkatastrophen oder Kriegen können Bots hilfreich sein, um wichtige Informationen schnell zu verbreiten. Es bedarf einer differenzierten Klassifizierung, die jedoch nicht einfach umzusetzen ist.

Technologische Lösungsansätze

Neben der Medienkompetenz und der Verantwortung der Plattformbetreiber können auch technologische Lösungen einen Beitrag leisten. So könnten fortschrittliche Algorithmen entwickelt werden, um Social Bots und ihre Aktivitäten frühzeitig zu erkennen und zu stoppen. Dabei kann auch der Einsatz Künstlicher Intelligenz zur automatisierten Überprüfung von Inhalten unterstützen. Diese Technologien müssen allerdings kontinuierlich weiterentwickelt und an die sich wandelnden Techniken der Bots angepasst werden – was nur eine reaktive Lösung darstellt und damit nur komplementär zu Maßnahmen für vertrauenswürdige Inhalte und Nutzerkompetenz sein kann.

Die Verantwortung der Gesellschaft

Jeder Einzelne ist Teil eines großen Netzwerks, das Informationen konsumiert und verbreitet. Daher sollte sich jeder seiner Rolle bewusst sein und Verantwortung übernehmen. Dies bedeutet, Informationen kritisch zu hinterfragen, nicht ungeprüft weiterzuverbreiten und sich aktiv über aktuelle Entwicklungen im Bereich der digitalen Medien zu informieren. Nur durch gemeinsames Handeln können die negativen Auswirkungen von Falschinformationen und Social Bots in den sozialen Netzwerken effektiv bekämpft werden.

Fazit

Die Bedrohung durch Falschinformationen und Social Bots in sozialen Netzwerken ist real und erfordert ein umfassendes und koordiniertes Vorgehen. Durch die Kombination von technologischem Fortschritt, der Förderung der Medienkompetenz von Nutzern und der Verantwortungsübernahme durch Plattformbetreiber, die den Zugang zu vertrauenswürdigen Informationen stärken, können wir dieser Herausforderung begegnen. In einer Welt, in der digitale Technologien immer weiter fortschreiten, ist es entscheidend, dass wir als Gesellschaft gemeinsam gegen die Verbreitung von Falschinformationen vorgehen, um weiterhin von den Vorteilen der sozialen Netzwerke zu profitieren.

Die integrative Zusammenarbeit aller beteiligten Akteure – von Bildungseinrichtungen über Plattformbetreiber bis hin zu den Nutzern selbst – ist der Schlüssel zu einer informierten und resilienten Gesellschaft. Nur so können wir die Integrität von Informationen in sozialen Netzwerken schützen und die Verbreitung von Falschinformationen nachhaltig eindämmen.

Center for Digital Transformation (CDT)

Das Center for Digital Transformation (CDT) am TUM Campus Heilbronn wurde 2019 gegründet und untersucht Themen rund um die Digitalisierung und deren Herausforderungen und Chancen. Ziel des CDT ist es, durch praxisorientierte Forschung Lösungen zu entwickeln und so einen direkten Nutzen für Wirtschaft und Gesellschaft zu generieren.

Center for Digital Transformation (CDT) im Web

(ID:50157523)