Cybersecurity in AI Systems Training Course
Die Sicherung von KI-Systemen ist mit besonderen Herausforderungen verbunden, die sich von herkömmlichen Cybersicherheitsansätzen unterscheiden. KI-Systeme sind anfällig für feindliche Angriffe, Data Poisoning und Modelldiebstahl, die alle erhebliche Auswirkungen auf den Geschäftsbetrieb und die Datenintegrität haben können. Dieser Kurs befasst sich mit den wichtigsten Cybersicherheitspraktiken für KI-Systeme und behandelt die Themen feindliches maschinelles Lernen, Datensicherheit in Pipelines für maschinelles Lernen und Compliance-Anforderungen für einen robusten KI-Einsatz.
Diese von einem Ausbilder geleitete Live-Schulung (online oder vor Ort) richtet sich an KI- und Cybersicherheitsexperten auf mittlerem Niveau, die die spezifischen Sicherheitsschwachstellen von KI-Modellen und -Systemen verstehen und angehen möchten, insbesondere in stark regulierten Branchen wie Finanzen, Data Governance und Beratung.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Arten von Angriffen auf KI-Systeme und Methoden zu deren Abwehr zu verstehen.
- Modellhärtungstechniken implementieren, um Pipelines für maschinelles Lernen zu sichern.
- Datensicherheit und -integrität in maschinellen Lernmodellen zu gewährleisten.
- Navigieren Sie durch regulatorische Compliance-Anforderungen in Bezug auf KI-Sicherheit.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Praktische Umsetzung in einer Live-Laborumgebung.
Optionen zur Kursanpassung
- Wenn Sie eine maßgeschneiderte Schulung für diesen Kurs wünschen, nehmen Sie bitte Kontakt mit uns auf, um dies zu vereinbaren.
Schulungsübersicht
Einführung in die Sicherheitsherausforderungen von AI
- Verständnis der einzigartigen Sicherheitsrisiken von KI-Systemen
- Vergleich zwischen traditioneller Cybersicherheit und KI-Cybersicherheit
- Überblick über die Angriffsflächen von KI-Modellen
Angreifer Machine Learning
- Arten von gegnerischen Angriffen: Umgehung, Vergiftung und Extraktion
- Implementierung von Verteidigungs- und Gegenmaßnahmen für Angreifer
- Fallstudien zu feindlichen Angriffen in verschiedenen Branchen
Modellhärtungstechniken
- Einführung in die Robustheit und Härtung von Modellen
- Techniken zur Verringerung der Anfälligkeit von Modellen für Angriffe
- Praktische Übungen mit defensiver Destillation und anderen Härtungsmethoden
Datensicherheit in Machine Learning
- Absicherung von Datenpipelines für Training und Inferenz
- Verhinderung von Datenlecks und Modellinversionsangriffen
- Bewährte Praktiken für den Umgang mit sensiblen Daten in KI-Systemen
KI-Sicherheits-Compliance und regulatorische Anforderungen
- Verstehen von Vorschriften rund um KI und Datensicherheit
- Einhaltung von GDPR, CCPA und anderen Datenschutzgesetzen
- Entwicklung sicherer und gesetzeskonformer KI-Modelle
Überwachung und Aufrechterhaltung der Sicherheit von KI-Systemen
- Implementierung einer kontinuierlichen Überwachung für KI-Systeme
- Protokollierung und Auditing für die Sicherheit beim maschinellen Lernen
- Reaktion auf KI-Sicherheitsvorfälle und -verstöße
Zukünftige Trends in der KI-Cybersecurity
- Neue Techniken zur Sicherung von KI und maschinellem Lernen
- Chancen für Innovationen in der KI-Cybersicherheit
- Vorbereitung auf zukünftige KI-Sicherheitsherausforderungen
Zusammenfassung und nächste Schritte
Voraussetzungen
- Grundkenntnisse über maschinelles Lernen und KI-Konzepte
- Vertrautheit mit Grundsätzen und Praktiken der Cybersicherheit
Zielgruppe
- Ingenieure für KI und maschinelles Lernen, die die Sicherheit von KI-Systemen verbessern möchten
- Fachleute für Cybersicherheit mit Schwerpunkt auf dem Schutz von KI-Modellen
- Fachleute für Compliance und Risikomanagement im Bereich Data Governance und Sicherheit
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Cybersecurity in AI Systems Training Course - Booking
Cybersecurity in AI Systems Training Course - Enquiry
Cybersecurity in AI Systems - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance, and Security for Enterprise Leaders
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsbewusst und im Einklang mit sich entwickelnden globalen Rahmenwerken wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und der US-Befehlskette für KI sicherheitsrelevant gestaltet.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die rechtlichen, ethischen und regulatorischen Risiken der Nutzung von KI über verschiedene Abteilungen hinweg zu verstehen.
- wichtige KI-Governance-Rahmenwerke (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensnutzung von KI einzurichten.
- Einkaufs- und Nutzungsrichtlinien für Drittanbieter- und internen KI-Systemen zu entwickeln.
AI Risk Management and Security in the Public Sector
7 StundenArtificial Intelligence (AI) bringt neue Dimensionen von operativen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Regierungsbehörden und -abteilungen mit sich.
Dieses durch einen Trainer geleitete Live-Training (online oder vor Ort) richtet sich an IT- und Risikoprofessionals des öffentlichen Sektors, die nur begrenzte Erfahrung in KI haben und verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder der Vorgaben bewerten, überwachen und schützen kann.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Kritische Risikoaspekte von KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- KI-spezifische Governance- und Auditing-Frameworks wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Gefahren zu erkennen, die auf KI-Modelle und Datenaufbereitungsprozesse abzielen.
- Kreuzabteilungsebenen-Risikomanagementpläne und Richtlinien für die KI-Einführung auszuarbeiten.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen zu Anwendungsfällen im öffentlichen Sektor.
- KI-Governance-Framework-Übungen und Richtlinienkarten.
- Szenario-basiertes Bedrohungsszenarienmodellieren und Risikobewertung.
Anpassungsoptionen des Kurses
- Um ein angepasstes Training für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Introduction to AI Trust, Risk, and Security Management (AI TRiSM)
21 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an IT-Fachleute auf Anfänger- bis mittlerem Niveau, die AI TRiSM in ihrem Unternehmen verstehen und implementieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Schlüsselkonzepte und die Bedeutung von KI-Vertrauens-, Risiko- und Sicherheitsmanagement zu verstehen.
- die mit KI-Systemen verbundenen Risiken zu erkennen und zu mindern.
- Bewährte Sicherheitspraktiken für KI umsetzen.
- die Einhaltung gesetzlicher Vorschriften und ethische Überlegungen für KI zu verstehen.
- Strategien für eine effektive KI-Governance und -Verwaltung zu entwickeln.
Building Secure and Responsible LLM Applications
14 StundenThis instructor-led, live training in Schweiz (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Introduction to AI Security and Risk Management
14 StundenThis instructor-led, live training in Schweiz (online or onsite) is aimed at beginner-level IT security, risk, and compliance professionals who wish to understand foundational AI security concepts, threat vectors, and global frameworks such as NIST AI RMF and ISO/IEC 42001.
By the end of this training, participants will be able to:
- Understand the unique security risks introduced by AI systems.
- Identify threat vectors such as adversarial attacks, data poisoning, and model inversion.
- Apply foundational governance models like the NIST AI Risk Management Framework.
- Align AI use with emerging standards, compliance guidelines, and ethical principles.
Privacy-Preserving Machine Learning
14 StundenThis instructor-led, live training in Schweiz (online or onsite) is aimed at advanced-level professionals who wish to implement and evaluate techniques such as federated learning, secure multiparty computation, homomorphic encryption, and differential privacy in real-world machine learning pipelines.
By the end of this training, participants will be able to:
- Understand and compare key privacy-preserving techniques in ML.
- Implement federated learning systems using open-source frameworks.
- Apply differential privacy for safe data sharing and model training.
- Use encryption and secure computation techniques to protect model inputs and outputs.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren möchten, Schwachstellen aufdecken und die Robustheit eingesetzter AI-Modelle verbessern.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realweltbedrohungen für maschinelles Lernen zu simulieren.
- Gegnerische Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von AI-APIs und -Pipelines zu bewerten.
- Strategien für Red-Teaming in KI-Einsatzumgebungen zu entwerfen.
Securing Edge AI and Embedded Intelligence
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.