Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in die Bedrohungssimulation für KI-Systeme
- Was macht KI-Systeme anfällig?
- Angriffsoberfläche von AI im Vergleich zu traditionellen Systemen
- Schlüsselangriffsvektoren: Daten-, Modell-, Ausgabeebene und Schnittstellenschichten
Adversarische Angriffe auf KI-Modelle
- Verständnis von adversarischen Beispielen und Störungstechniken
- White-box vs Black-box-Angriffe
- FGSM, PGD und DeepFool-Methoden
- Visualisierung und Erstellung von adversarischen Proben
Modell-Inversion und Datenschutzverletzungen
- Schlussfolgern von Trainingsdaten aus Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und Generativmodellen
Datendüngerung und Backdoor-Injektionen
- Wie verdorbene Daten das Modellverhalten beeinflussen
- Trigger-basierte Backdoors und Trojanerangriffe
- Strategien zur Erkennung und Sanierung
Robustheit und Verteidigungstechniken
- Adversarische Training und Datenaugmentierung
- Gradientenmaskierung und Eingangs-Vorverarbeitung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in differentielle Datenschutztechniken
- Rauscheinbringung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellevaluierung und -bereitstellung
- Verwendung des Adversarial Robustness Toolboxes (ART) in praktischen Anwendungen
- Industriebeispiele: reale Brüche und Gegenmaßnahmen
Zusammenfassung und nächste Schritte
Voraussetzungen
- Ein Verständnis von Machine-Learning-Workflows und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Kenntnisse grundlegender Sicherheits- oder Bedrohungsbegriffe sind hilfreich
Zielgruppe
- Machine-Learning-Ingenieure
- Cybersecurity-Analysten
- AI-Forscher und Modellvalidierungs-Teams
14 Stunden