LLMs im Fadenkreuz

LLMs (Large Language Models) wie ChatGPT oder GPT-4 werden zunehmend in produktiven Umgebungen eingesetzt, von der Textverarbeitung bis zur Entscheidungsfindung in Unternehmen. Doch wie sicher sind diese Systeme wirklich? In diesem Vortrag werfen wir einen detaillierten Blick auf reale Angriffsvektoren und Schwachstellen, die in der Praxis bereits ausgenutzt werden. Dabei gehen wir auf Themen wie direkte Prompt-Injection, unsichere API-Implementierungen, indirekte Manipulationen und Schwächen in der Ausgabe-Verarbeitung ein. Unterstützt wird der Vortrag durch aktuelle Forschung und praktische Demos, die auf den Prinzipien des Web Vulnerability Scannings basieren. Die Teilnehmenden lernen nicht nur, wie Angriffe durchgeführt werden, sondern erhalten auch Best Practices zur Absicherung ihrer Systeme.

Der Vortrag richtet sich an Entwickler, Sicherheitsforscher und alle, die LLMs in ihrer Umgebung sicher einsetzen möchten.

Vortragende

WEITERE SESSIONS AUS #HACKING

  • Die HXZ.ONE #1 Badge-Challenge

  • Hacking Your Enterprise Copilot: A Direct Guide to Indirect Prompt Injections

  • Licht im Dunkeln - der Mythos des Blackouts durch Hacker

  • wlan.fc.type_subtype eq 4

  • Etwas spannendes entdeckt?

    Registriere dich noch heute!

    Verpasse nicht die Chance, von führenden Expertinnen und Experten zu lernen und wertvolle Kontakte zu knüpfen!