Schulungsübersicht

Überblick über die Architektur von LLMs und Angriffsflächen

  • Aufbau, Bereitstellung und Zugriff auf LLMs über APIs
  • Wichtige Komponenten in LLM-Anwendungssätzen (z.B. Prompts, Agenten, Speicher, APIs)
  • Wo und wie Sicherheitsprobleme im realen Einsatz entstehen

Prompt-Injektion und Jailbreak-Angriffe

  • Was ist Prompt-Injektion und warum sie gefährlich ist
  • Direkte und indirekte Szenarien der Prompt-Injektion
  • Jailbreaking-Techniken zur Umgehung von Sicherheitsfiltern
  • Detection und Milderungsstrategien

Datenverlust und Datenschutzrisiken

  • Verstohlene Datenoffenlegung durch Antworten
  • PII-Lecks und Missbrauch des Modell-Speichers
  • Entwicklung datenschutzbewusster Prompts und Retrieval-Augmented Generation (RAG)

Ausgabe-Filterung und -Schutz von LLMs

  • Nutzung von Guardrails AI für Inhaltsfilterung und Validierung
  • Definieren von Ausgabeschemata und -beschränkungen
  • Überwachung und Protokollierung unsicherer Ausgaben

Mensch-in-der-Schleife und Workflow-Ansätze

  • Wo und wann menschliche Überwachung eingeführt werden sollte
  • Genehmigungs-Queues, Bewertungsschwellen, Fallback-Behandlung
  • Ausrichtung der Vertrauensbewertung und Rolle der Erklärbarkeit

Sichere LLM-Anwendungsentwurfsmuster

  • Least Privilege und Sandboxing für API-Aufrufe und Agenten
  • Ratenbegrenzung, Drosselung und Missbrauchserkennung
  • Robustes Chaining mit LangChain und Prompt-Isolation

Konformität, Protokollierung und Governance

  • Sicherstellen der Nachvollziehbarkeit von LLM-Ausgaben
  • Aufrechterhaltung der Verfolgbarkeit und Steuerung von Prompten/Versionen
  • Anpassung an interne Sicherheitsrichtlinien und regulatorische Anforderungen

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Eine Verständnis von großen Sprachmodellen und anweisenbasierten Schnittstellen
  • Erfahrung im Bau von LLM-Anwendungen mit Python
  • Vertrautheit mit API-Integrationen und cloudbasierten Bereitstellungen

Zielgruppe

  • KI-Entwickler
  • Anwendungsentwickler und Lösungsarchitekten
  • Technische Produktmanager, die mit LLM-Werkzeugen arbeiten
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien