Privacy-Preserving Machine Learning Schulung
Datenschutz Machine Learning ist ein Bereich, der sich auf das Schützen von vertraulichen Daten konzentriert, während gleichzeitig fortgeschrittene KI-Fähigkeiten in dezentralisierten oder eingeschränkten Umgebungen ermöglicht werden.
Dieses durch einen Lehrer geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachkräfte, die Techniken wie verteiltes Lernen, sichere Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen ML-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer folgendes können:
- Kerntechniken des Datenschutzes im ML verstehen und vergleichen.
- Verteilte Lernsysteme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellbildung zu gewährleisten.
- Verschlüsselungstechniken und sichere Berechnungen verwenden, um Eingaben und Ausgaben von Modellen zu schützen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um eine angepasste Ausbildung zu diesem Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Schulungsübersicht
Einführung in datenschutzkonforme ML
- Motivationen und Risiken in umfelds mit sensiblen Daten
- Überblick über datenschutzkonforme ML-Techniken
- Bewertung von Bedrohungsmodellen und regulatorischen Aspekten (z.B., GDPR, HIPAA)
Federated Learning
- Konzept und Architektur des Federated Learning
- Client-Server-Synchronisation und Aggregation
- Implementierung mit PySyft und Flower
Differenzelle Privatsphäre
- Mathematik der differenzellen Privatsphäre
- Anwendung von DP in Datenabfragen und Modelltraining
- Nutzung von Opacus und TensorFlow Privacy
Sichere Mehrpartei-Rechnung (SMPC)
- SMPC-Protokolle und Anwendungsbeispiele
- Vergleich der Verschlüsselungs-basierten vs. Secret-Sharing-Ansätze
- Sichere Berechnungsabläufe mit CrypTen oder PySyft
Homomorphe Verschlüsselung
- Ganzzahlig homomorphe vs. teilweise homomorphe Verschlüsselung
- Verschlüsselte Inferenz für sensible Workloads
- Praxis mit TenSEAL und Microsoft SEAL
Anwendungen und Branchenbezogene Fallstudien
- Datenschutz in der Gesundheitsversorgung: Federated Learning für medizinische AI
- Sichere Zusammenarbeit im Finanzsektor: Risikomodelle und Einhaltung von Vorschriften
- Anwendungen in der Verteidigung und bei Behörden
Zusammenfassung und Nächste Schritte
Voraussetzungen
- Eine Verständnis der Prinzipien des maschinellen Lernens
- Erfahrung mit Python und ML-Bibliotheken (z.B., PyTorch, TensorFlow)
- Kenntnisse in Datenprivatsphäre oder Cybersecurity sind hilfreich
Zielgruppe
- KI-Forscher
- Mitarbeiter von Teams für Datenschutz und Datenschutzzusammenhang
- Sicherheitstechniker in regulierten Branchen
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Privacy-Preserving Machine Learning Schulung - Booking
Privacy-Preserving Machine Learning Schulung - Enquiry
Privacy-Preserving Machine Learning - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance, and Security for Enterprise Leaders
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsbewusst und im Einklang mit sich entwickelnden globalen Rahmenwerken wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und der US-Befehlskette für KI sicherheitsrelevant gestaltet.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die rechtlichen, ethischen und regulatorischen Risiken der Nutzung von KI über verschiedene Abteilungen hinweg zu verstehen.
- wichtige KI-Governance-Rahmenwerke (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensnutzung von KI einzurichten.
- Einkaufs- und Nutzungsrichtlinien für Drittanbieter- und internen KI-Systemen zu entwickeln.
Building Secure and Responsible LLM Applications
14 StundenDieser von einem Trainer geleitete Live-Kurs in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken mit LLM-gesteuerten Anwendungen identifizieren und minimieren möchten, einschließlich Prompt-Injection, Datenleckage und unzusammenhängender Ausgabe, während sie Sicherheitskontrollen wie Eingabeverifikation, menschenbasierte Überwachung und Ausgabegrenzwerte einbinden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernschwächen von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien auf die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Mit Techniken wie Sandboxing, Red Teaming und menschenbasierten Überprüfungen in Produktionspipelines zu integrieren.
Introduction to AI Security and Risk Management
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an Einsteiger im Bereich IT-Sicherheit, Risikomanagement und Compliance, die grundlegende AI-Sicherheitskonzepte, Bedrohungsszenarien sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die einzigartigen Sicherheitsrisiken zu verstehen, die durch AI-Systeme eingeführt werden.
- Betroffenheit von Bedrohungsszenarien wie feindlichen Angriffen, Datenvergiftung und Modell-Inversion zu identifizieren.
- grundlegende Governance-Modelle wie das NIST AI Risk Management Framework anzuwenden.
- Außenstehend Standards, Compliance-Richtlinien und ethische Prinzipien mit der Nutzung von AI auszurichten.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren möchten, Schwachstellen aufdecken und die Robustheit eingesetzter AI-Modelle verbessern.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realweltbedrohungen für maschinelles Lernen zu simulieren.
- Gegnerische Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von AI-APIs und -Pipelines zu bewerten.
- Strategien für Red-Teaming in KI-Einsatzumgebungen zu entwerfen.
Securing Edge AI and Embedded Intelligence
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.