#335
Hackathon: Sicherheit von Large Language Models (LLMs)
In dieser Präsenzveranstaltung wird praxisnah vermittelt, wie Sprachmodelle (Large Language Models) eingerichtet und potenzielle Schwachstellen gezielt angegriffen werden können. Dabei kommen verschiedene Angriffstechniken sowohl auf das Modell selbst als auch auf die zugehörige Infrastruktur zum Einsatz.
Anhand praktischer Beispiele entsteht ein tieferes Verständnis für die Sicherheitsrisiken denen Sprachmodelle ausgesetzt sind und es wird aufgezeigt, welche Auswirkungen eine mögliche Kompromittierung auf ein Unternehmen haben kann.
So wird die Grundlage geschaffen, um die Datensicherheit im Unternehmen zu stärken.
Dozenten
Alexander Schlicher
Lernziele
Die Teilnehmenden erfahren mehr über
- das Deployment von LLMs
- Angriffsvektoren auf LLMs
- Folgen von Cyberangriffen auf LLMs
Zielgruppe
IT-Sicherheitsbeauftragte, Softwareentwickler
Vorkenntnisse
Keine Vorkenntnisse nötig
Veranstaltungsort
Technische Universität Darmstadt
Gebäude L1/01-6
Otto-Berndt-Str. 2
64287 Darmstadt
Dieses Modul benötigt Ihre Zustimmung zur Verwendung von Google Diensten (Maps) auf dieser Seite.
Onlineveranstaltung
Die Online-Termine finden über Zoom oder Microsoft-Teams statt.
Kurz vor der Veranstaltung erhalten Sie von uns den Link mit den Zugangsdaten per E-Mail.
- Montag 10 Februar 2025