Schulungsübersicht

Grundlagen: Bedrohungsszenarien für agenutzersteuerte KI

  • Arten von agenutzersteuerten Bedrohungen: Missbrauch, Escalation, Datenverlust und Risiken in der Lieferkette
  • Angreiferprofile und Angriffsfähigkeiten, die spezifisch für autonome Agenten sind
  • Zuordnung von Assets, Vertrauensgrenzen und kritischen Kontrollpunkten für Agenten

Governance, Richtlinien und Risikomanagement

  • Governance-Frameworks für agenutzersteuerte Systeme (Rollen, Verantwortlichkeiten, Genehmigungsschleusen)
  • Richtlinienentwurf: zulässige Nutzung, Escalationsregeln, Datenaufbereitung und Nachvollziehbarkeit
  • Compliance-Überlegungen und Beweissammlung für Audits

Identitäts- und Authentifizierungsmanagement für Agenten

  • Entwurf von Identitäten für Agenten: Service-Accounts, JWTs und kurzfristige Anmeldeinformationen
  • Zugangsmodelle mit minimalsten Berechtigungen und just-in-time-Anmeldeinformationen
  • Identitätszyklus, Rotation, Delegation und Rückzug von Anmeldeinformationen

Zugangskontrolle, Geheimhaltung und Datenschutz

  • Fein granulare Zugangssteuerungsmodelle und fähigkeitsbasierte Muster für Agenten
  • Geheimhaltungsmanagement, Verschlüsselung bei der Übertragung und im Ruhezustand sowie Dataminimierung
  • Schutz sensibler Wissensquellen und personenbezogener Daten (PII) vor unbefugtem Zugang durch Agenten

Observabilität, Auditing und Vorfallreaktion

  • Entwurf von Telemetrie für Agentenverhalten: Absichtstracing, Kommandologs und Herkunftsnachweise
  • SIEM-Integration, Alarmierungsschwellen und forensische Bereitschaft
  • Runbooks und Playbooks für agentenbezogene Vorfälle und Eindämmung

Red-Teaming von agenutzersteuerten Systemen

  • Planung von Red-Team-Übungen: Bereich, Regelungen und sichere Ausfallvorsorge
  • Adversariale Techniken: Eingabeinjektion, Missbrauch von Tools, Manipulation der Denkprozesse und API-Missbrauch
  • Durchführung kontrollierter Angriffe und Messung von Exposition und Auswirkungen

Verfestigung und Abwehrmaßnahmen

  • Technische Steuerungsmechanismen: Reaktionsdrosselung, Fähigkeitssteuerung und Sandboxing
  • Richtlinien- und Orchestrierungssteuerungen: Genehmigungsabläufe, menschliche Überwachung und Governance-Hooks
  • Verteidigung auf Modell- und Eingabe-Ebene: Eingabevalidierung, Kanonisierung und Ausgabefilter

Umsetzung sicherer Agentenbereitstellungen

  • Bereitstellungsmuster: Staging, Canary-Test und schrittweise Einführung für Agenten
  • Änderungsmanagement, Testpipelines und vorbereitete Sicherheitsprüfungen
  • Querfunktionaler Governance: Sicherheit, Recht, Produkt- und Betriebsabläufe

Schlussprojekt: Red-Team / Blue-Team-Übung

  • Durchführung eines simulierten Red-Team-Angriffs gegen eine sandboxierte Agentenumgebung
  • Verteidigung, Erkennung und Beseitigung als Blue-Team unter Verwendung von Steuerungen und Telemetrie
  • Vorstellung der Ergebnisse, Beseitigungsplan und Aktualisierung der Richtlinien

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Fest verankerte Kenntnisse in Sicherheitsingenieurwesen, Systemadministration oder Cloud-Operationen
  • Vertrautheit mit KI/ML-Konzepten und dem Verhalten großer Sprachmodelle (LLM)
  • Erfahrung im Bereich Identitäts- und Zugriffsmanagement (IAM) sowie sicherer Systemdesign

Zielgruppe

  • Sicherheitsingenieure und Red-Teamer
  • KI-Betriebs- und Plattform-Ingenieure
  • Konformitätsbeauftragte und Risikomanager
  • Ingenieurleiter, die für Agentenbereitstellungen verantwortlich sind
 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien