LLMs im Fadenkreuz

LLMs (Large Language Models) wie ChatGPT oder GPT-4 werden zunehmend in produktiven Umgebungen eingesetzt, von der Textverarbeitung bis zur Entscheidungsfindung in Unternehmen. Doch wie sicher sind diese Systeme wirklich? In diesem Vortrag werfen wir einen detaillierten Blick auf reale Angriffsvektoren und Schwachstellen, die in der Praxis bereits ausgenutzt werden. Dabei gehen wir auf Themen wie direkte Prompt-Injection, unsichere API-Implementierungen, indirekte Manipulationen und Schwächen in der Ausgabe-Verarbeitung ein. Unterstützt wird der Vortrag durch aktuelle Forschung und praktische Demos, die auf den Prinzipien des Web Vulnerability Scannings basieren. Die Teilnehmenden lernen nicht nur, wie Angriffe durchgeführt werden, sondern erhalten auch Best Practices zur Absicherung ihrer Systeme.

Der Vortrag richtet sich an Entwickler, Sicherheitsforscher und alle, die LLMs in ihrer Umgebung sicher einsetzen möchten.

Speaker

FURTHER SESSIONS FROM #HACKING

  • Die HXZ.ONE #1 Badge-Challenge

  • Hacking Your Enterprise Copilot: A Direct Guide to Indirect Prompt Injections

  • Licht im Dunkeln - der Mythos des Blackouts durch Hacker

  • wlan.fc.type_subtype eq 4

  • Have you discovered something exciting?

    Register today!

    Don't miss the chance to learn from leading experts and make valuable contacts!

    Follow us on linkedIn!