LLM Security: Workshop für LLM-Anwendungen
TODO: rechts neben Titel war ein Icon zu sehen (Ofen mit Flamme)....
TODO: Wie so oft in den anderen Seiten bräuchten wir hier eigentlich eine 2-spaltige Komponente…. diese Spalte ist LEER
Seit dem Boom von OpenAI’s ChatGPT haben Large Language Modelle (LLMs) in der Entwicklung moderner Softwarelösungen verbreitet Einzug gehalten. Doch die Integration von LLMs In Verfahren, Prozesse und webbasierte Anwendungen bringt neue Sicherheitsrisiken und eine neue Dimension der Komplexität mit sich. Um Angriffe und Datenlecks zu vermeiden, ist es besonders wichtig, Sicherheit bereits in der Designphase zu berücksichtigen.
Dieser Workshop hat das Ziel, dem Teilnehmerkreis Sicherheitsrisiken beim Einsatz dieser Technologien aufzuzeigen und wirkungsvolle Sicherheitsansätze und Gegenmaßnahmen zu vermitteln.
Wir stützen uns in diesem Workshop auf die aktuellen Richtlinien von OWASP (Top 10 for LLMs >>TODO: Link-einfügen<<) und Mitre (ATLAS >>TODO: Link-einfügen<<). Unsere Vorgehensweise orientiert sich dabei am Aufbau und der Integration eines LLMs in folgenden Phasen:
- Zunächst wird der Aufbau der LLM-Infrastruktur betrachtet. Dies beinhaltet die korrekte Auswahl des Modellformats, die Betrachtung der hostenden Plattform oder der sicheren Einbindung einer LLM-API. Ebenfalls wird der Aufbau der Wissensdatenbanken, wie eines RAG-Vector-Stores, betrachtet. Ein Fokus liegt auf der sicheren Behandlung von internen und vor allem sensiblen Daten. Relevante Risiken sind unter anderem Prompt Injection (OWASP Modul LLM01) und Training Data Poisioning (LLM03).
- Weiterhin wird die Systemarchitektur geprüft. Die Berücksichtigung der Systemarchitektur beinhaltet die sichere Integration der LLM-Komponenten in die Anwendungslandschaft sowie die Sicherheit auf Infrastrukturebene. Dazu gehört auch die korrekte Anbindung an Logging- und Monitoringsysteme, Authentifizierungs- und Autorisierungsdienste, sowie an Drittsysteme bspw. für das Hosten von Plugins. Relevante Risiken sind unter anderem Supply Chain Vulnerabilities (LLM05) und Insecure Plugin Design (LLM07).
- Außerdem wird die Sicherheit bei der Bedienung der Anwendung untersucht. Dabei werden folgende Fragen geklärt: Habe ich passende Schritte gegen Prompt Injection getroffen? Integriere ich meine Funktionen und Plugins sicher? Und schütze ich mich ausreichend vor Angriffen „von innen“? Relevante Risiken sind an dieser Stelle unter anderem Prompt Injection (LLM01), Insecure Output Handling (LLM02) und Sensitive Information Disclosure (LLM06).
Besondere Schwerpunkte liegen auf diesen Aspekten:
- Frühe Integration von Sicherheitsaspekten bei der LLM-Einbindung
- Identifikation und Bewertung zugehöriger Risiken
- Strategien zur Absicherung Ihrer Systeme, angepasst an Ihre Anforderungen
- Unterstützung bei der Entscheidungsfindung für die am besten geeignete Schutzstrategie
TODO: Hier gibt es leider keinen passenden "Leistungen"-Block. Nur die längliche Info darüber. Vielleicht müsste man das noch zerlegen....
TODO: Hier war noch Verlinkung zu „Die große Application Security Pentest FAQ für Auftraggeber“ sowie darunter ein Block mit „AP Tom“. Darunter war dann noch ein „Karriere“-Aufruf mit Bild, 2 Blöcken und Verlinkung „Mehr“

mgm sp
DeepDive
Ein Penetrationstest kann mit unterschiedlichem Vorwissen durchgeführt werden – vom völligen Blindflug bis zur vollständigen Offenlegung der Systemarchitektur. Die Wahl zwischen Blackbox, Greybox und Whitebox bestimmt dabei Tiefe, Aufwand und Aussagekraft des Tests.
Ich bin der Lesetext. Ich kann unten über die Toggle abgewählt werden. Lorem ipsum dolor sit amet sed Marcus hodie in colloseo est. Ubi autem est cornelia. Diu expectat. Tandem gaudet et ridet. Ibi est! Ibi sedet!
Vergleich 1
- thema 1
- them 2
- thema 3
Vergleich 2
- thema 1
- them 2
- thema 3 dasdasdsa dsdsa
