Monitoring von KI

Mehr Transparenz bei Künstlicher Intelligenz

| Autor / Redakteur: Oliver Schonschek / Nico Litzel

Künstliche Intelligenz hat ein Transparenzproblem. Lösungen und Verfahren sind gefragt, mit denen Unternehmen und Kunden Entscheidungen und Ergebnisse nachvollziehen können.
Künstliche Intelligenz hat ein Transparenzproblem. Lösungen und Verfahren sind gefragt, mit denen Unternehmen und Kunden Entscheidungen und Ergebnisse nachvollziehen können. (Bild: © ralwel - stock.adobe.com)

Künstliche Intelligenz (KI), englisch Artificial Intelligence (AI), hat bisher ein Transparenzproblem: Läuft der AI-Service überhaupt? Was macht der AI-Service? Worauf greift er zu? Spezielle Monitoring-Dienste helfen bei der Überwachung Künstlicher Intelligenz.

Künstliche Intelligenz ist ohne Zweifel der am stärksten diskutierte Technologie-Trend der letzten Jahre. Die Erwartungen an KI sind hoch, wie Umfragen regelmäßig zeigen: 8 von 10 Bundesbürgern sind laut Bitkom-Studie sicher, dass KI die Verkehrssteuerung verbessern und so Staus reduzieren kann. Jeweils etwa zwei Drittel sagen, dass Verwaltungstätigkeiten durch KI beschleunigt werden (68 Prozent), in der Forschung die Innovationskraft steigt (67 Prozent) und der Kundenservice Anfragen zuverlässiger bearbeiten kann (64 Prozent). Ebenfalls eine Mehrheit geht davon aus, dass die Polizei durch den Einsatz von KI Verbrechen schneller aufklären kann (54 Prozent) und im Gesundheitswesen mit KI-Hilfe bessere Diagnosen gestellt werden (57 Prozent).

Betrachtet man diese Erwartungen, stellt man fest, dass es durchaus kritische Bereiche sind, in denen KI zu Verbesserungen führen soll. Werden die Erwartungen trotz KI-Nutzung nicht erfüllt, könnte dies je nach Szenario schwerwiegende Folgen haben. Deshalb ist es auch nicht verwunderlich, dass KI auch auf Skepsis trifft: 6 von 10 Bundesbürgern (58 Prozent) würden zumindest in bestimmten Situationen eine KI-Entscheidung der eines Menschen vorziehen, 4 von 10 (40 Prozent) lehnen dies aber grundsätzlich ab.

Auch bei Unternehmen gibt es einen Zwiespalt, wenn es um KI geht: Einerseits sehen sie sich beim Einsatz von Künstlicher Intelligenz ungewollt im Hintertreffen, mehr noch als bei 3D-Druck, Virtual Reality, Blockchain und Robotik. Als Hindernisse beim Einsatz nennen sie Datenschutz und Sicherheitsanforderungen. Andererseits aber gilt KI als neue Technologie auch als Unternehmensrisiko, wie das Allianz Risk Barometer 2018 zeigt. Neue Technologien wie KI belegen hier Platz sieben unter den Top-10-Unternehmensrisiken.

Es stellt sich die Frage: Warum ist KI einerseits Hoffnungsträger, andererseits fürchten sich selbst IT-Unternehmen vor den möglichen Auswirkungen? Die Antwort kann nur lauten, dass es ein Transparenzproblem gibt. Das mangelnde Wissen darüber, was die KI genau macht und machen wird, führt zu den Sorgen um den Datenschutz und führt zu den Vorstellungen, dass es sich um ein hohes Risiko handeln kann.

KI weder rosig noch zu riskant sehen, sondern richtig

Die Risiken durch KI sind nicht von der Hand zu weisen, man denke nur an die Prognosen wie die von IBM Security: Dieses Jahr sollen demnach KI-basierte Angriffe zunehmen, da Cyberkriminelle maschinelles Lernen einsetzen, um menschliches Verhalten zu imitieren. Die Anbieter von IT-Sicherheitslösungen müssen daher ihre eigenen KI-Tools weiterentwickeln, um diese neuen Bedrohungen besser bekämpfen zu können, so IBM. Ähnliche Vorhersagen haben auch andere Security-Anbieter gemacht.

Man kann und muss also von einem Missbrauchspotenzial ausgehen. Doch selbst ohne böse Absicht kann KI letztlich Schaden anrichten, wenn etwas nicht so funktioniert, wie man es als Anwender erwartet und darauf vertraut. Verbraucherschützer warnen vor „Blackbox-Algorithmen“. Wie eine repräsentative Online-Umfrage zeigt, wollen 77 Prozent der Befragten, dass der Staat automatisierte Entscheidungen überprüfen kann. Politische und gesellschaftliche Akteure müssten gemeinsam dafür sorgen, Chancen von automatisierten Entscheidungen zu nutzen und Risiken zu minimieren. Die große Mehrheit der Verbraucher (75 Prozent) sieht in automatisierten Entscheidungen eine Gefahr, wenn deren Datenbasis und Entscheidungsprinzipien unklar sind. Auf Bundesebene wurde nun beschlossen: Für Algorithmen-basierte Entscheidungen sollen dringend benötigte Kontrollmechanismen entwickelt werden.

Künstliche Intelligenz als Angriffswerkzeug

Die dunkle Seite der KI

Künstliche Intelligenz als Angriffswerkzeug

24.05.17 - Mit Künstlicher Intelligenz (KI) kann man die IT-Sicherheit dabei unterstützen, Angriffe früher und besser zu erkennen. Doch könnte KI auch für die andere Seite arbeiten, für den Angreifer? Wenn ja, was ist zu tun? lesen

KI-Einsatz mit Monitoring-Diensten begleiten

Einerseits muss es also etwas geben, was die Verbraucherschützer einen „Algorithmus-TÜV“ nennen, also eine neutrale und kompetente Stelle, die sich KI-Algorithmen ansieht, bevor diese in kritischen Bereichen genutzt wird.

Andererseits sollten Unternehmen selbst für mehr Transparenz bei KI sorgen. Dafür sprechen viele Gründe: 91 Prozent gaben in einer Kundenservice-Umfrage von Pegasystems an, dass sie darüber informiert werden wollen, ob sie in einem Online Chat oder am Telefon mit einem „virtuellen“ Assistenten oder einer Person interagieren.

Eine weitere Studie von Pegasystems macht deutlich, dass wir Menschen die Kontrolle über intelligente Systeme behalten wollen. 79 Prozent der Befragten gaben an, dass sie sich mit einer intelligenten Maschine, die sie kontrolliert, nicht wohlfühlen würden. Interessanterweise gaben 78 Prozent an, es wäre ihnen in diesem Fall angenehmer, wenn es vollständige Transparenz und Nachprüfbarkeit der entsprechenden Entscheidungen geben würde.

Es gibt auch bereits Lösungen, die ein Monitoring und eine Kontrolle von KI-Services erlauben:

  • Pegasystems hat mit T-Switch eine Lösung vorgestellt, die Unternehmen mehr Kontrolle über den Einsatz von Künstlicher Intelligenz im Management von Kundenbeziehungen verschaffen soll. T-Switch ist Bestandteil des Pega Customer Decision Hub und ermöglicht es Benutzern, KI-Algorithmen auf der Grundlage von Schwellenwerten für die Transparenz einfacher und sicherer zu implementieren. Damit will T-Switch Unternehmen helfen, beim Einsatz von KI Risiken zu vermeiden und die Einhaltung gesetzlicher Vorschriften sicherzustellen. Benutzer von Pega Customer Decision Hub können auf T-Switch mit einem zentralen Business Control Center für KI zugreifen. So können sie KI-Modelle in einem Dashboard erstellen, importieren, anpassen und überwachen.
  • Dynatrace hat Code-Level-Monitoring für Serverless-AWS-Lambda-Funktionen angekündigt. Lambda Serverless Computing Service wird immer stärker für IoT- und Alexa-Funktionen eingesetzt. Deshalb ermöglicht Dynatrace zusätzlich das Monitoring der gesamten Anwendungslandschaft und deckt auch sprachbasierte Interaktionen mit Amazon Alexa ab. „Amazon Alexa wird für das Kundenerlebnis immer wichtiger. Die Menschen kaufen und machen ihre Geschäftstransaktionen über die Stimme, nicht nur über Laptops oder andere Geräte. Die Überwachung dieser Transaktionen bis hin zum Userlevel ist geschäftskritisch. Denn ohne diese Kontrolle haben Unternehmen wachsende blinde Stellen”, so Alois Reitbauer, Vice President, Chief Technical Strategist und Head of Innovation Lab bei Dynatrace.

Weitere Lösungen und Verfahren werden folgen, ja folgen müssen, um den KI-Einsatz transparenter zu machen. Dies ist nicht nur aus rechtlicher Sicht immer wichtiger, sondern letztlich auch für den Geschäftserfolg, der bekanntlich vom Vertrauen der Kunden abhängt und damit auch vom Vertrauen der Kunden in die KI-gestützten Lösungen eines Unternehmens.

KI-Chips helfen dem Datenschutz

Künstliche Intelligenz auch ohne Cloud

KI-Chips helfen dem Datenschutz

30.10.17 - Künstliche Intelligenz (KI) kann erst dann ihre Vorzüge ausspielen, wenn es Vertrauen in den Datenschutz gibt. Ein wesentlicher Schritt dabei ist, mehr KI-Services auf den Geräten selbst zu erbringen. KI-Chips helfen beim smarten Edge Computing. lesen

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45274270 / Monitoring und KI)