Porno-Scanner für Unternehmen

Pornographie auf dienstlichen IT-Systemen

| Autor / Redakteur: Ralph Dombach / Peter Schmitz

Eine automatisierte, und damit anonyme Erkennung ob Mitarbeiter illegale Daten auf der Unternehmens-Hardware ablegen ist kaum möglich!
Eine automatisierte, und damit anonyme Erkennung ob Mitarbeiter illegale Daten auf der Unternehmens-Hardware ablegen ist kaum möglich! (Bild: geralt - Pixabay / CC0)

Trotz Vorschriften und Verboten sehen manche Mitarbeiter die dienstliche IT-Infrastruktur als Privatbesitz an und agieren dort so, wie auf dem heimischen PC. Oft finden daher, gestohlene Mediadaten oder auch sexuelle Inhalte den Weg auf dienstliche IT-Systeme. Ein Zustand der für ein Unternehmen zu rechtlichen Problemen führen kann.

Fachleute vermuten, dass Werbung und Pornographie die wesentlichen Treiber des WWW sind. Ohne diese gäbe es das Internet nicht im gegenwärtigen Umfang mit seinem scheinbar endlosen Angebot an Daten und Medien.

Bei Mediadateien, wie (illegal) kopierter Musik unterscheidet der Gesetzgeber im Urheberrechtsgesetz zwischen der privaten Nutzung (§ 109 UrhG) und dem gewerblichen Schwarzkopierer (§ 108a UrhG). Sofern ein Mitarbeiter derartige (illegale) Dateien im Unternehmen speichert ist dies sehr „unerfreulich“, aber bei weitem nicht so kritisch, wie bei Pornographie.

Der Gesetzgeber definiert bzgl. Pornographie sehr genau, was erlaubt und was verboten ist. Ein kritischer Berührungspunkt ist dabei immer gegeben, wenn Personen unter achtzehn Jahren (also häufig Auszubildende oder Aushilfen) im Unternehmen auf derartige Inhalte zugreifen können. Hier kommt beispielsweise der § 184 (Verbreitung pornographischer Schriften) aus dem Strafgesetzbuch zur Betrachtung.

(1) Wer eine pornographische Schrift (§ 11 Absatz 3)

  • 1. einer Person unter achtzehn Jahren anbietet, überlässt oder zugänglich macht,
  • 2. an einem Ort, der Personen unter achtzehn Jahren zugänglich ist oder von ihnen eingesehen werden kann, zugänglich macht,

wird mit Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe bestraft.

Eine etablierte Methode zur Vermeidung dieser Risiken sind URL-Filter bei Gateway-Systemen, die den Web-Verkehr überprüfen. Versucht man auf eine indizierte Webseite mit dem Browser zuzugreifen und jugendgefährdenden Content herunterzuladen, wird dies durch den zwischengeschalteten URL-Filter unterbunden.

Durch die Nutzung derartiger Maßnahmen zeigt ein Unternehmen, dass es die Gefahren verbotener Inhalte erkannt hat, vorbeugende Gegenmaßnahmen ergreift und damit die Problematik einer Organisationsverschuldung deutlich reduziert. URL-Filter wirken jedoch nur bei einem Web-Zugriff. Kommen entsprechende Inhalte z.B. auf einem USB-Stick ins Unternehmen, ist der URL-Filter wirkungslos.

Ergänzende Schutzmöglichkeiten

Einen besserem Schutz versprechen Image-Analyzer, die den Inhalt von Dateien analysieren. Im Sprachgebrauch oft als „Porno-Scanner“ bezeichnet, versuchen diese Tools in Bild- und Film-Dateien, pornographische Inhalte zu erkennen.

Eine Erkennung von sexuellem Material bedeutet dabei:

  • Bessere Umsetzung des Jugendschutzes
  • Die Einhaltung der Arbeits-Verträge zu unterstützen (Zeitverschwendung)
  • Verschwendung von Speicherplatz zu reduzieren
  • Vermeiden der Belästigungen von Mitarbeitern mit einem anderen Ethikrahmen
  • Bekämpfen von Malware, die sexuellen Content als Träger nutzt

Das Leistungsspektrum derartiger Tools ist dabei breit gefächert. Manche Produkte überzeugen mit der Erkennungsmethodik, während andere anscheinend nur den Bildanteil ermitteln, der auf nackte Haut hindeutet.

Generell gilt, dass eine automatisierte 100 Prozent Erkennung durch die Vielzahl von Variablen (noch) nicht möglich ist. Aber um einer verstärkten, missbräuchliche Nutzung der dienstlichen IT auf die Spur zu kommen, genügt die Qualität der Tools allemal.

Einen ersten Einblick in das Thema der „Porno-Scanner“, erlaubt ein einfaches Javascript-Beispiel, welche vor einigen Jahren von Patrick Wied in einem „Nacktheits-Detektor“ anschaulich umgesetzt wurde. Auf seiner NudeJS Demo-Seite können vier unterschiedliche Bilder mit dem verfügbaren JS-Algorithmus analysiert werden, um zu sehen, wie viel „Nacktheit“ auf dem Bild enthalten ist. Die Auswahl der Demo-Bilder sollte aber nicht darüber hinwegtäuschen, dass einfache Camouflage-Techniken (Graustufenbilder, Schlechte Bildqualität oder dunklere Hautfarben) die Qualität der Erkennung deutlich reduzieren.

Einen technologischen Schritt weiter geht das kanadische Unternehmen Algorithmia das Algorithmen entwickelt und diese verkauft. Zusätzlich zu zahlreichen textuellen Verfahren (automatische Textzusammenfassung etc.) gibt es auch einen Algorithmus namens „Nudity Detection“. Dieser analysiert ebenfalls den „Nacktheits-Anteil“ auf einem Bild, aber mit deutlich verbesserten Algorithmen. Auf der Nudity Dectection Demo-Seite kann man hier mit vorgegebenen Samples experimentieren (Tipp: Ein Reload der Webseite im Browser zeigt andere Testbilder an). Es ist aber auch möglich, eigene Bilder zur Analyse hochzuladen (URL oder Drag & Drop). Auch hier gilt, dass mitunter die Verfahren deutlich danebenliegen und Nudity-Elemente auf einem Bild entdecken, wo keine sind!

Bessere Testergebnisse erzielte hingegen picpurify. Über eine API-Schnittstelle die durch ein eigenes Tool aufgerufen werden kann, erfolgt die Bild-Analyse. In den begleitenden Tests, wurden die genutzten Fake-Bilder (Bilder die Hautfarben nutzen aber keinerlei sexuellen Content darstellen) einwandfrei als „No Porn“ identifiziert und Adult-Content richtig eingestuft.

Einen Einblick in die Arbeitsweise derartiger Programme ermöglicht das Tool „Media Detective“. Dieses erlaubt es über diverse Einstellungen die Analysequalität zu beeinflussen und damit auch das Gesamtergebnis. Erfreulicherweise betrachtet das Tool auch komprimierte Archive und untersucht z.B. den Cache-Ordner des Browsers, ob sich dort entsprechendes Material befindet.

Das Programm selbst dient primär dazu, den eigenen Computer zu durchsuchen – ist also vom Einsatz her eher für den Bereich kleinerer Unternehmen oder dem Privat-PC geeignet (Kinder-Schutz).

Nacktheit ja, Pornographie nein!

Analysetools wie die genannten, eigenen sich zur Erkennung, ob unbekleidete bzw. spärlich bekleidete Menschen auf einem Bild dargestellt sind. Ob es sich um Pornographie handelt, können diese nicht immer zuverlässig erkennen. Pornographie liegt z.B. nach deutschem Recht dann vor, wenn die folgende Definition zutrifft:

Als pornografisch ist eine Darstellung anzusehen, wenn sie unter Ausklammerung aller sonstigen menschlichen Bezüge sexuelle Vorgänge in grob aufdringlicher, anreißerischer Weise in den Vordergrund rückt und ihre Gesamttendenz ausschließlich oder überwiegend auf das lüsterne Interesse des Betrachters an sexuellen Dingen abzielt“. [Definition des BGH]

In der Praxis bedeutet dies, eine automatisierte (und damit anonyme) Erkennung ob Mitarbeiter illegale Daten auf der Unternehmens-Hardware ablegen ist nicht möglich! Mittels Tools kann allenfalls eine Vor-Analyse von Bildmaterial erfolgen, die einem „Nacktheits-Anteil“ innerhalb der untersuchten Medien identifiziert. Eine eindeutige Entscheidung kann daher nur durch eine menschliche Nachkontrolle erfolgen.

Zwar gibt es hier auch Fortschritte im Umfeld der selbstlernenden KI-Systeme – doch diese sind noch ein gutes Stück von der angestrebten Erkennungsrate entfernt. Die Ausnahme dieser Regel gilt jedoch für Kinderpornographie. Hier gibt es Tools, die überwiegend ohne menschliche Interaktion auskommen. Eines der häufiger genutzten Verfahren ist PhotoDNA. Dieses Programm wurde 2009 von Microsoft in Zusammenarbeit mit dem Universität Dartmouth entwickelt und erstellt für identifizierte Bilder mit kinderpornographischem Inhalt einen „Fingerabdruck“ (Hash-Wert). Dieser kann dann mit einem anderen Bild verglichen werden und identifiziert so bekannte Bilder (auch solche die absichtlich nachträglich manipuliert wurden). Der Nachteil ist jedoch, dass nur bekannte, gehashte Bilder auch erkannt werden. Neues Bildmaterial bleibt unentdeckt.

Das können Unternehmen tun

Man kann den Status Quo akzeptieren und darüber hinwegsehen, dass ggf. Mitarbeiter dienstliche Systeme für private Zwecke nutzen. Aber im Fall von sexuellen Inhalten ist dies nicht ratsam. Die Nutzung von Gateway-Systemen, die auf URLs und Web-Content filtern ist hier empfehlenswert. Hier bieten in der Regel alle namhaften Hersteller entsprechenden Lösungen an. Stellvertretend sei hier Forecpoint mit seinem „Forcepoint Image Analysis Module“ (pdf) erwähnt.

Man kann davon ausgehen, dass a) illegaler Content auch auf anderen Wegen in die Firma gelangt und b) sich bereits auf den Systemen befindet. Hier sollte man anfangen, mit einem „Porno-Scanner“ periodisch die Dateninhalte innerhalb des Firmennetzes zu durchsuchen. Dies kann über Schnittstellen, wie z.B. API-Module und ein eigenes Tool erfolgen oder auch durch kommerzielle Tools, die ein Gesamtheitliches Leistungsangebot offerieren. Keine einfache Aufgabe, aber IT Sicherheit war noch nie einfach!

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44349911 / Mitarbeiter-Management)