Der naive Assistent
Warum Ihr Chatbot ein Sicherheitsrisiko ist
Chatbots ohne Schutz werden zum Einfallstor: Manipulation, Datenabfluss und Fehlentscheidungen drohen. Wir zeigen Angriffe und wie AI-Firewalls wirksam schützen.
Der Einsatz von Chatbots in Unternehmen und Behörden wächst rasant, doch viele Systeme agieren wie ein „naiver Assistent“: hilfsbereit, aber ohne ausgeprägtes Sicherheitsbewusstsein. Genau darin liegt der Pain Point. Ohne geeignete Schutzmechanismen können Chatbots gezielt manipuliert werden, etwa durch geschickt formulierte Eingaben, die zu falschen Entscheidungen oder zur Preisgabe sensibler Informationen führen.
Im Fokus unseres Webinars stehen reale Angriffsmuster aus der Praxis: Prompt Injection, Datenexfiltration und die Manipulation von Business-Logik, bei der Prozesse falsch interpretiert oder sicherheitsrelevante Prüfungen übersprungen werden.
Erfahren Sie im Webinar, wie sogenannte AI Firewalls diesen Risiken begegnen: Sie analysieren Anfragen kontextuell, erkennen verdächtige Muster und filtern kritische Inhalte – als zusätzliche Schutzschicht für vertrauenswürdige KI-Anwendungen.
Webinar-Highlights:
- Reale Angriffsszenarien verstehen: Praxisnahe Beispiele zeigen, wie Chatbots manipuliert werden können.
- Risiken für Organisationen erkennen: Bedrohungen für Daten und Prozesse.
- AI-Firewalls im Einsatz: Schutz durch Mustererkennung und Filterung kritischer Inhalte.
Ihr Referent
Julian Iavarone
Technical Consultant & Subject Matter Expert API-Security, Data and Application Security
Thales
Bildquelle: Thales