Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in AI Red Teaming
- Verständnis des AI-Gefahrenbereichs
- Rollen von Red Teams bei der AI-Sicherheit
- Ethische und rechtliche Überlegungen
Adversarial Machine Learning
- Angriffstypen: Ausweichen, Verschmutzen, Extrahieren, Inferenz
- Erzeugung von adversarischen Beispielen (z.B. FGSM, PGD)
- Zielgerichtete vs. nichtzielgerichtete Angriffe und Erfolgsmetriken
Testen der Modellrobustheit
- Bewertung der Robustheit unter Störungen
- Untersuchung von Blindspots und Ausfallmodi des Modells
- Belastungsprüfung von Klassifizierungs-, Sehen- und NLP-Modellen
Red Teaming AI-Pipelines
- Angriffsoberfläche von AI-Pipelines: Daten, Modell, Bereitstellung
- Ausnutzung unsicherer Modell-APIs und Endpunkte
- Rückwärtsingenierung des Verhaltens und der Ausgaben des Modells
Simulation und Werkzeuge
- Verwendung des Adversarial Robustness Toolboxes (ART)
- Red Teaming mit Werkzeugen wie TextAttack und IBM ART
- Sandboxing, Überwachung und Observability-Werkzeuge
AI Red Team-Strategie und Verteidigung Collaboration
- Erstellen von Red Team-Aufgaben und Ziele
- Kommunizieren der Ergebnisse an Blue Teams
- Integration des Red Teaming in die AI-Risikomanagement
Zusammenfassung und Nächste Schritte
Voraussetzungen
- Ein Verständnis von Machine Learning und Deep-Learning-Architekturen
- Erfahrung mit Python und ML-Frameworks (z.B., TensorFlow, PyTorch)
- Vertrautheit mit Cybersecurity-Konzepten oder Offensive-Security-Techniken
Zielgruppe
- Sicherheitsforscher
- Offensive Security Teams
- AI-Garantiefachleute und Red-Team-Professionals
14 Stunden