Risiken und Möglichkeiten von KI ChatGPT – Held oder Bösewicht?

Ein Gastbeitrag von Tim Berghoff Lesedauer: 6 min |

Anbieter zum Thema

ChatGPT hat viele Menschen aus den unterschiedlichsten Gründen aufgeschreckt. Nicht alle diese Befürchtungen sind aber auch berechtigt. Fest steht nur, dass ChatGPT und verwandte Technologien an einem Punkt stehen, an dem sich nicht nur die Gesellschaft als Ganzes, sondern auch IT-Sicherheit damit auseinandersetzen müssen.

„Eine KI ist in erster Linie ein Werkzeug, welches weder „gut“ noch „böse“ ist. Gut oder böse wird ein Werkzeug erst durch seine Anwender und den Zweck, zu dem sie es einsetzen.“, sagt Tim Berghoff, Security Evangelist bei G DATA CyberDefense.
„Eine KI ist in erster Linie ein Werkzeug, welches weder „gut“ noch „böse“ ist. Gut oder böse wird ein Werkzeug erst durch seine Anwender und den Zweck, zu dem sie es einsetzen.“, sagt Tim Berghoff, Security Evangelist bei G DATA CyberDefense.
(Bild: Supatman - stock.adobe.com)

Kurz nachdem der Wirbel um ChatGPT begonnen hatte, waren Kriminelle bereits damit beschäftigt, die Möglichkeiten für kriminelle Zwecke auszuloten. So weit, so erwartbar. Gänzlich neu ist der Einsatz von KI für die Softwareentwicklung nicht. So bietet GitHub für zahlende Entwickler*innen bereits seit längerem einen KI-basierten Assistenten an, der unter dem Namen „Copilot“ bekannt ist. Wer viel und oft codet, mag meist nach kurzer Zeit diese Unterstützung nicht mehr missen.

Zwischen Panik und Entspannung

Doch ChatGPT kann mehr als Programmieren. Viel mehr. So viel, dass Menschen sich ernste Sorgen um die gesellschaftlichen Folgen dieser Technologie machen. So wurden bereits Befürchtungen laut, die das Ende ganzer Berufszweige vorhersagen. Und manche davon haben langfristig gesehen vielleicht sogar Recht. Schon heute unterstützen sowohl KI als auch Machine Learning zahlreiche Bereiche des täglichen Geschäftslebens. Chatbots, die den Kundenservice unterstützen, sind nur ein Teil davon. Sicherheitshersteller kämen ohne die Hilfe von Machine Learning bei der Malware-Analyse gar nicht mehr nach.

Doch kommt jetzt das Zeitalter, in dem eine KI eine neue, unentdeckbare „Super-Malware“ entwickelt? Wohl kaum. Bittet jemand ChatGPT darum, etwa eine Ransomware zu programmieren, dann weigert sich das System. Zerlegt man allerdings die Aufgabe „Ransomware“ in ihre programmiertechnischen Bestandteile, gibt es keine Beanstandungen. Der Haken an der Sache: ChatGPT „kann“ nicht wirklich programmieren, sondern setzt die geforderten Code-Schnipsel aus Bekanntem zusammen. Meistens funktioniert der generierte Code, allerdings gibt es keinen Weg vorbei an einer manuellen Prüfung der Ergebnisse. Nicht nur unter funktionalen Gesichtspunkten, sondern auch unter dem Aspekt der Sicherheit. Denn auch von Secure Coding hat ChatGPT keine Ahnung. Wer fürchtet, als Softwareentwickler*in demnächst arbeitslos zu werden, hat also auf absehbare Zeit nichts zu befürchten.

Verwunderlich ist das nicht, denn wenn auch Menschen mit wenig Programmierkenntnissen sich – stark vereinfacht ausgedrückt – ausschließlich mit Hilfe von Kommentaren auf Plattformen wie Stackoverflow das Programmieren aneignen, dann ist hier erst einmal nicht viel ernsthafte Konkurrenz zu erwarten.

Schlechte Erfahrungen

Doch wo es viel Licht gibt, existiert auch viel Schatten. Potenzial für Missbrauch muss niemand lange suchen. Schauen wir uns die Kernfunktionen von ChatGPT an, so fällt schnell auf, wie menschlich sich die von ChatGPT generierten Antworten ausnehmen. Wüsste man es nicht besser, könnte man meinen, hier spräche ein Mensch. Beim Erstellen seiner Antworten hat der Chatbot Zugriff auf eine riesige Menge an Daten. Daten, die von Menschen generiert worden sind. Was das bedeuten kann, hat Microsoft bereits in Form von „Tay“ erfahren, einer KI, die per Twitter mit der Welt kommunizierte und von Twitter lernte. Die Ergebnisse einer KI können nur so gut sein wie die Daten, auf denen ihr Output beruht. Und wenn etwa im „Lehrmaterial“ einer KI bestimmte Vorurteile vorhanden sind, dann werden diese sich auch im Verhalten der KI niederschlagen.

Dass KI-Systeme zuweilen ethisch fragwürde Entscheidungen treffen, ist jedoch auch keine neue Erkenntnis. Bereits vor einigen Jahren befassten sich Forschende mit dem Phänomen, dass KI-Systeme ethnisch diskriminierende Tendenzen zu haben scheinen. Hier wurde immer wieder bestätigt, dass die Datengrundlage der alleinige definierende Faktor ist. Es gilt also, genau auszuloten, welche Daten eine KI zur Auswertung erhält – und welche nicht. Eine KI ist für sich genommen unfähig, zu diskriminieren. Dieses Verhalten lernt sie erst im Laufe der Zeit und sie ist auch nicht dazu fähig, sich in dieser Hinsicht selbst zu reflektieren. Rückblickend betrachtet war das nicht die beste Idee, denn schnell lernte Tay, anzügliche und sexistische Posts zu verfassen sowie rassistische und antisemitische Statements zu posten. Wer eine KI von Twitter oder anderen sozialen Netzwerken lernen lässt, macht den Bock zum Gärtner. Das Prinzip „Garbage in, Garbage out“ tritt hier in geradezu schmerzhaft anmutender Deutlichkeit zutage. Jede KI kann nur so gut sein wie die Daten, von der sie lernt. Und wenn eine KI nur von den Interaktionen lernt, die von einer Menge Online-Trolle oder Menschen mit fragwürdigen politischen Ansichten ausgehen, dann ist es nicht verwunderlich, wenn sich die KI genauso beginnt zu verhalten. Für Tay war daher der Ausflug in das Twitter-Universum nach gerade einmal 48 Stunden beendet und die PR-Abteilung von Microsoft musste Erklärungsarbeit leisten.

Mit ChatGPT hat Microsoft nun Zugriff auf eine Technologie, die sich als Gamechanger entpuppt. Zehn Milliarden Dollar investiert auch ein Unternehmen wie Microsoft nicht aus reiner Herzensgüte in ein Unternehmen wie OpenAI. Dieses Investment ist auch als Kampfansage zu sehen, und zwar in Richtung des Platzhirsches Google. ChatGPT soll Eingang in viele Produkte aus der Microsoft-Welt finden, unter anderem in deren Suchmaschine Bing. Bisher ist Bing mit einem globalen Marktanteil von neun Prozent an Suchanfragen eher der Underdog in der Suchmaschinenwelt und oft eher Teil von Internet-Memes als eine ernstzunehmende Google-Konkurrenz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Doch von Microsofts Zukunftsplänen gibt es noch viele Baustellen rund um KI im allgemeinen und ChatGPT im Besonderen.

Fakes als Achillesferse

Klar definierte Aufgaben und auch das Beschaffen harter Fakten sind eine Stärke von KI. Doch hier steckt auch eine der wesentlichen Schwächen des revolutionären KI-Systems. Es besitzt weder ein moralisches Framework, noch verfügt es über Medienkompetenz. KI kann nicht zwischen echten Fakten und „alternativen Fakten“ unterscheiden und nutzt beides unterschiedslos als Ausgangsbasis für generierte Texte. Das ist kein ChatGPT-eigenes Problem, sondern eine generelle Herausforderung beim Trainieren von KI-Systemen.

Hammer und Nagel

Wie viele andere Technologien auch, wird sich ChatGPT und KI erst einmal einfinden müssen. Derzeit herrscht noch vielfach Euphorie und viele Menschen träumen davon, was mit dieser Technologie nicht alles möglich werden könnte. Manches davon mutet schon selbst beinahe wie Science-Fiction an. Doch auch hier ist zu erwarten, dass ChatGPT und Co. den normalen Hype-Cycle durchlaufen. Dieser führt vom „Gipfel übersteigerter Erwartungen“ hinab in das Tal der Enttäuschung und wird dann irgendwann dazwischen ankommen, auf dem Plateau der Produktivität – und erst hier wird sich zeigen, was von all den hochfliegenden Erwartungen übriggeblieben ist. Denn wann immer eine neue Technologie auftaucht, versuchen Menschen zuerst beinahe zwanghaft, viele der aktuellen Probleme mit Hilfe dieser Technologie zu lösen. Auch das kennen wir aus der Vergangenheit. So nennen wir es aus den frühen Tagen der zivilen Nutzung von Kernenergie, die Strom versprach, der „so billig ist, dass man es kaum messen könne“ – oder eben auch die Cloud. Alles begann mit der Hoffnung auf die Segnungen des „Rechenzentrums aus der Steckdose“ dem Statement „Alles geht nur noch in die Cloud“ und dem Abgesang auf on-premise-Infrastruktur. Bis zur ernüchternden Erkenntnis, dass es hier auch ernsthafte Probleme geben kann und lokale Systeme schon noch ihre Daseinsberechtigung haben, dauerte es nur wenige Jahre. Die Wahrnehmung von KI als Schlüsseltechnologie (denn das ist sie zweifelsohne) wird eine ähnliche Entwicklung durchlaufen. Und wieder wird es das alte „Hammer-Problem“ geben. Wir alle wissen: Wenn ein Hammer das einzige Werkzeug ist, sieht irgendwann jedes Problem wie ein Nagel aus.

Das Werkzeug kann nichts für seine Schöpfer

Die Möglichkeiten der OpenAI-Technologien sind beeindruckend und in den falschen Händen können sie mit Sicherheit großen Schaden anrichten – in Kombination mit der aus demselben Haus stammenden Stimm-Imitation ist vollautomatisiertes Social Engineering in den Bereich des Möglichen gerückt. Fakt ist, Cyberkriminelle können mit ein wenig Geschick auf eine Technologie zugreifen, die Sicherheitsverantwortlichen in Unternehmen und Behörden Kopfzerbrechen bereiten dürfte.

Eines dürfen wir am Ende des Tages aber nicht vergessen: Eine KI ist in erster Linie ein Werkzeug, welches weder „gut“ noch „böse“ ist. Gut oder böse wird ein Werkzeug erst durch seine Anwender und den Zweck, zu dem sie es einsetzen. Mit einem Hammer lässt sich ein Nagel in die Wand treiben, um ein Bild aufzuhängen. Oder man kann ihn beim Bau eines Hauses verwenden. Aber ein Hammer kann natürlich auch zu einem Tatwerkzeug werden, mit dem Menschen ernsthaft verletzt werden können.

Über den Autor: Tim Berghoff ist Security Evangelist bei G DATA CyberDefense.

(ID:49252188)