Sicherheit Künstlicher Intelligenz Cyberagentur schreibt Projekt zum sicheren Maschinellen Lernen aus

Von Nicola Hauptmann Lesedauer: 2 min |

Anbieter zum Thema

Wird Maschinelles Lernen im Bereich der inneren und äußeren Sicherheit sowie bei kritischen Infrastrukturen eingesetzt, sieht die Cyberagentur ein Maximum an Sicherheit als unabdingbar – momentan sei das jedoch nicht gegeben. Mit einem neuen mehrstufigen Projekt sollen Verlässlichkeit und Manipulationssicherheit von KI-Ansätzen gesteigert werden.

„Die geplante Beauftragung soll dabei helfen, die wissenschaftlichen Grundlagen für dieses anzustrebende Maximum an Cybersicherheit von KI-Systemen zu schaffen und auszubauen“ (Dr. Daniel Gille, Projektleiter Cyberagentur)
„Die geplante Beauftragung soll dabei helfen, die wissenschaftlichen Grundlagen für dieses anzustrebende Maximum an Cybersicherheit von KI-Systemen zu schaffen und auszubauen“ (Dr. Daniel Gille, Projektleiter Cyberagentur)
(© PixobaPICS – stock.adobe.com)

Mit der Forschung zu „Robustem und Sicherem Maschinellen Lernen“ hat die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) ihr größtes Forschungsprojekt zur Sicherheit Künstlicher Intelligenz (KI) ausgeschrieben. In einem mehrstufigen Verhandlungsverfahren sollen neue Ansätze zur Steigerung der Robustheit und Sicherheit verschiedener KI-Ansätze im Bereich der inneren und äußeren Sicherheit entwickelt werden.

Maschinelles Lernen (ML) habe sich zu einem maßgeblichen Analysewerkzeug für immer größere und komplexere Datenmodelle entwickelt – größte Schwachstellen der Technologie seien die Abhängigkeit von Trainingsdaten und die Intransparenz der trainierten Modelle. Unerwartete Eingaben könnten zu unvorhergesehenen und schwer nachvollziehbaren, möglicherweise katastrophalen Ergebnissen führen. Dabei geht es nicht nur um zufällige, sondern auch um manipulierte Eingaben. Als ein Beispiel wird der Missbrauch von KI-Chatbots angeführt, bei dem die Sprachmodelle mit manipulierten Befehlen (Prompt Injection) zu unbeabsichtigten, potenziell folgenschweren Aussagen verleitet werden.

„Gerade im Kontext der inneren und äußeren Sicherheit sowie bei kritischen Infrastrukturen ist für uns die Nachweisbarkeit von Sicherheit und Robustheit von neuronalen KI-Systemen gegenüber gezielten Angriffen und manipulativen Inputs von entscheidender Bedeutung“, erläutert Dr. Daniel Gille, Projektleiter und Leiter „Sicherheit durch KI und Sicherheit für KI“ in der Cyberagentur. In diesen Bereichen sei beim Einsatz von maschinellem Lernen ein Maximum an Sicherheit unabdingbar – könne aber momentan nicht gewährleistet werden, so Gille. „Die geplante Beauftragung soll dabei helfen, die wissenschaftlichen Grundlagen für dieses anzustrebende Maximum an Cybersicherheit von KI-Systemen zu schaffen und auszubauen.“

Das auf fünf Jahre angelegte Forschungsprojekt soll sowohl Grundlagenforschung als auch Prototypenentwicklung umfassen und sich auf fünf Schwerpunkte konzentrieren:

  • Datenabsicherung
  • Modellverifikation
  • Systemeinbettung
  • Hybridmodelle aus neuronalen und symbolischen Komponenten sowie
  • Ende-zu-Ende-Verifikation

Cyberagentur-Projektleiter Dr. Daniel Gille: „Wir möchten Antworten auf einige der ungelösten Fragen im oft vernachlässigten Themenbereich Sicherheit für KI finden"
Cyberagentur-Projektleiter Dr. Daniel Gille: „Wir möchten Antworten auf einige der ungelösten Fragen im oft vernachlässigten Themenbereich Sicherheit für KI finden"
(© Cyberagentur)

Zum Ende der Projektlaufzeit soll anhand eines realen Einsatzsystems der inneren oder äußeren Sicherheit demonstriert und evaluiert werden, wie die entwickelten Ansätze zur Steigerung der Robustheit und Sicherheit neuronaler KI-Ansätze entlang der gesamten ML-Prozesskette nachweisbar sicher angewendet werden können.

Dazu plant die Cyberagentur die parallele Beauftragung mehrerer Bieter(gemeinschaften). Deren Ergebnisse sollen nach jeder Phase des fünfstufigen Projektwettbewerbs evaluiert und die besten ausgewählt werden, so dass sich das Teilnehmerfeld schrittweise verkleinert.

Weitere Informationen

Unterlagen und Details zur Ausschreibung sind über die eVergabeplattform des BMI abrufbar. Akademische und außeruniversitäre Forschungseinrichtungen, Industrieunternehmen und Start-ups können ihre Angebote abgeben. Die Frist endet am 23.05.2023.

Zur Ausschreibungsplattform

(ID:49351457)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung