LLMs im Fadenkreuz
LLMs (Large Language Models) wie ChatGPT oder GPT-4 werden zunehmend in produktiven Umgebungen eingesetzt, von der Textverarbeitung bis zur Entscheidungsfindung in Unternehmen. Doch wie sicher sind diese Systeme wirklich? In diesem Vortrag werfen wir einen detaillierten Blick auf reale Angriffsvektoren und Schwachstellen, die in der Praxis bereits ausgenutzt werden. Dabei gehen wir auf Themen wie direkte Prompt-Injection, unsichere API-Implementierungen, indirekte Manipulationen und Schwächen in der Ausgabe-Verarbeitung ein. Unterstützt wird der Vortrag durch aktuelle Forschung und praktische Demos, die auf den Prinzipien des Web Vulnerability Scannings basieren. Die Teilnehmenden lernen nicht nur, wie Angriffe durchgeführt werden, sondern erhalten auch Best Practices zur Absicherung ihrer Systeme.
Der Vortrag richtet sich an Entwickler, Sicherheitsforscher und alle, die LLMs in ihrer Umgebung sicher einsetzen möchten.
Vortragende
-
Maximilian Pelka
Cyber Thread Analyst @ Vivid Planet Software GmbH
Maximilian Pelka ist Cyber Threat Analyst mit dem Schwerpunkt auf Web Application Security (WAS). Nach seiner Ausbildung an der HTL Salzburg und dem anschließenden Studium an der FH Salzburg hat er sich auf die Analyse und Absicherung von Schwachstellen in modernen Webanwendungen spezialisiert.... mehr erfahren