Schulungsübersicht

Einführung in die Bedrohungssimulation für KI-Systeme

  • Was macht KI-Systeme anfällig?
  • Angriffsoberfläche von AI im Vergleich zu traditionellen Systemen
  • Schlüsselangriffsvektoren: Daten-, Modell-, Ausgabeebene und Schnittstellenschichten

Adversarische Angriffe auf KI-Modelle

  • Verständnis von adversarischen Beispielen und Störungstechniken
  • White-box vs Black-box-Angriffe
  • FGSM, PGD und DeepFool-Methoden
  • Visualisierung und Erstellung von adversarischen Proben

Modell-Inversion und Datenschutzverletzungen

  • Schlussfolgern von Trainingsdaten aus Modellausgabe
  • Mitgliedschaftsinferenzangriffe
  • Datenschutzrisiken in Klassifizierungs- und Generativmodellen

Datendüngerung und Backdoor-Injektionen

  • Wie verdorbene Daten das Modellverhalten beeinflussen
  • Trigger-basierte Backdoors und Trojanerangriffe
  • Strategien zur Erkennung und Sanierung

Robustheit und Verteidigungstechniken

  • Adversarische Training und Datenaugmentierung
  • Gradientenmaskierung und Eingangs-Vorverarbeitung
  • Modellglättung und Regularisierungsstrategien

Datenschutzmaßnahmen in KI-Verteidigungen

  • Einführung in differentielle Datenschutztechniken
  • Rauscheinbringung und Datenschutzbudgets
  • Federated Learning und sichere Aggregation

AI Security in der Praxis

  • Bedrohungsbewusste Modellevaluierung und -bereitstellung
  • Verwendung des Adversarial Robustness Toolboxes (ART) in praktischen Anwendungen
  • Industriebeispiele: reale Brüche und Gegenmaßnahmen

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Ein Verständnis von Machine-Learning-Workflows und Modelltraining
  • Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
  • Kenntnisse grundlegender Sicherheits- oder Bedrohungsbegriffe sind hilfreich

Zielgruppe

  • Machine-Learning-Ingenieure
  • Cybersecurity-Analysten
  • AI-Forscher und Modellvalidierungs-Teams
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien