Sicherung von Edge AI und eingebetteter Intelligenz Schulung
Die Sicherung von Edge AI und eingebetteter Intelligenz ist die Praxis, maschinelles Lernen und Daten in eingeschränkten, oft physisch exponierten Umgebungen wie Drohnen, Sensoren, Smart-Cameras und autonomen Systemen zu schützen.
Diese von einem Trainer geleitete, live-Schulung (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsfachleute, die AI-Modelle am Edge gegen Bedrohungen wie Manipulation, Datenverlust, feindselige Eingaben und physische Angriffe schützen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge AI-Bereitstellungen zu identifizieren und einzuschätzen.
- Manipulationsresistenz und Verschlüsselungstechniken anzuwenden.
- Edge-Bereitstellungen zu härten und Datenpipelines sicher zu gestalten.
- Bedrohungsminderungsstrategien spezifisch für eingebettete und eingeschränkte Systeme umzusetzen.
Kursformat
- Interaktive Vorlesung und Diskussion.
- Viel Übung und Praxis.
- Hands-on-Implementierung in einer live-Lab-Umgebung.
Kursanpassungsmöglichkeiten
- Für eine angepasste Schulung für diesen Kurs kontaktieren Sie uns bitte, um die Anordnung zu besprechen.
Schulungsübersicht
Einführung in Edge AI und eingebettete Systeme
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardwareplattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedrohungslandschaft für Edge AI
- Risiken durch physischen Zugang und Manipulation
- Feindselige Beispiele und Modellmanipulation
- Datenverlust und Bedrohungen durch Modellinversion
Schutz des Modells
- Verhärtungs- und Quantisierungsstrategien für Modelle
- Wasserzeichen und Fingerprinting von Modellen
- Defensive Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Trusted Execution Environments (TEEs) für AI
- Secure Enclaves und vertrauliches Computing
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Manipulationsdetektion und Geräteeinheiten
- Secure Boot und Integritätstests für Firmware
- Sensorvalidierung und Anomaly Detection
- Remote Attestation und Geräte-Health-Monitoring
Edge-to-Cloud-Sicherheitsintegration
- Sichere Datenübertragung und Schlüsselverwaltung
- End-to-end-Verschlüsselung und Schutz des gesamten Datencyklus
- Cloud-AI-Orchestrierung unter Berücksichtigung von Edge-Sicherheitsanforderungen
Best Practices und Risikominderungsstrategie
- Threat Modeling für Edge AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Vorgehen bei Vorfall und Management von Firmware-Updates
Zusammenfassung und weitere Schritte
Voraussetzungen
- Verständnis von eingebetteten Systemen oder Edge AI-BereitstellungsUmgebungen
- Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
- Grundkenntnisse in Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete AI
- IoT-Sicherheitsspezialisten
- Ingenieure, die ML-Modelle auf Edge- oder eingeschränkten Geräten bereitstellen
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Sicherung von Edge AI und eingebetteter Intelligenz Schulung - Buchung
Sicherung von Edge AI und eingebetteter Intelligenz Schulung - Anfrage
Sicherung von Edge AI und eingebetteter Intelligenz - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
ISACA Advanced in AI Security Management (AAISM)
21 StundenAAISM ist ein fortgeschrittener Rahmen zur Bewertung, Governance und Verwaltung von Sicherheitsrisiken in KI-Systemen.
Diese unter Anleitung stattfindende Live-Schulung (online oder vor Ort) richtet sich an Fortgeschrittene, die effektive Sicherheitskontrollen und Governance-Praktiken für Unternehmens-KI-Umgebungen implementieren möchten.
Am Ende dieses Programms werden die Teilnehmer in der Lage sein:
- KI-Sicherheitsrisiken mit anerkannten Branchenmethoden zu bewerten.
- Governance-Modelle für verantwortungsbewusste KI-Bereitstellungen zu implementieren.
- KI-Sicherheitsrichtlinien mit den Unternehmenszielen und regulatorischen Erwartungen abzustimmen.
- Widerstandsfähigkeit und Verantwortlichkeit in kundengesteuerten Operationen zu erhöhen.
Kursformat
- Vom Trainer geführte Vorlesungen, die durch Expertenanalyse ergänzt werden.
- Praktische Workshops und beurteilungsorientierte Aktivitäten.
- Angewandte Übungen unter Verwendung realer KI-Governance-Szenarien.
Kursanpassungsoptionen
- Für maßgeschneiderte Schulungen, die auf Ihre Unternehmens-KI-Strategie abgestimmt sind, kontaktieren Sie uns bitte zur Anpassung des Kurses.
AI-Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese vom Dozenten geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an unternehmensführende Fachleute mittlerer Ebene, die verstehen möchten, wie sie KISysteme verantwortungsbewusst und im Einklang mit aufkommenden globalen Rahmenwerken wie der EU-KI-Verordnung, der DSGVO, ISO/IEC 42001 und dem US-Präsidentenverordnungen zur KI verwalten und sichern können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken des KI-Einsatzes in verschiedenen Abteilungen zu verstehen.
- Wichtige KI-Governance-Rahmenwerke (EU-KI-Verordnung, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Überwachungs- und Kontrollrichtlinien für den Einsatz von KI im Unternehmen festzulegen.
- Beschaffungs- und Nutzungsleitlinien für Drittanbieter- und hausinterne KISysteme zu entwickeln.
Künstliche Intelligenz: Risikomanagement und Sicherheit im öffentlichen Sektor
7 StundenKünstliche Intelligenz (KI) führt neue Dimensionen operativer Risiken, Governance-Herausforderungen und Cybersicherheitsanfälligkeiten für Behörden und Ministerien ein.
Diese von einem Dozenten geführte Live-Trainingseinheit (online oder vor Ort) richtet sich an IT- und Risikofachleute im öffentlichen Sektor, die bisher wenig Erfahrung mit KI haben und verstehen möchten, wie sie KI-Systeme in einem regierungs- oder regelungsbezogenen Kontext evaluieren, überwachen und schützen können.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsselrisikokonzepte im Zusammenhang mit KI-Systemen zu interpretieren, einschließlich Verzerrung, Unvorhersehbarkeit und Modellverschiebung.
- KI-spezifische Governance- und Auditing-Rahmen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersicherheitsbedrohungen zu erkennen, die KI-Modelle und Datenpipelines als Ziel haben.
- Querabteilungsrisikomanagementpläne und politische Ausrichtung für den Einsatz von KI aufzustellen.
Kursformat
- Interaktive Vorlesungen und Diskussionen über Anwendungsfälle im öffentlichen Sektor.
- Übungen zu KI-Governance-Rahmen und Politikzuordnung.
- Szenariobasierte Bedrohungsmodellierung und Risikoauswertung.
Kursanpassungsoptionen
- Für eine angepasste Schulung für diesen Kurs kontaktieren Sie uns bitte, um eine Anpassung vorzunehmen.
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM)
21 StundenDieses von einem Trainer geführte Live-Seminar (online oder vor Ort) richtet sich an IT-Professionals mit grundlegenden bis mittleren Kenntnissen, die ein Verständnis und die Implementierung von AI TRiSM in ihren Organisationen erwerben möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die wesentlichen Konzepte und die Bedeutung von Vertrauenswürdigkeit, Risikomanagement und Sicherheit in KI-Systemen zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und abzumildern.
- Best Practices für die Sicherheit von KI zu implementieren.
- Die Einhaltung von Vorschriften und ethische Überlegungen in der KI zu verstehen.
- Strategien zur wirksamen KI-Governance und -Verwaltung zu entwickeln.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
Cybersecurity in AI-Systemen
14 StundenDieses von einem Trainer durchgeführte, lebendige Training (online oder vor Ort) richtet sich an fortgeschrittene AI- und Cybersecurity-Profi-nale, die die Sicherheitslücken speziell für AI-Modelle und -Systeme verstehen und adressieren möchten. Insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung sind diese Kenntnisse von großer Bedeutung.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von feindlichen Angriffen auf AI-Systeme und Methoden zur Verteidigung gegen diese zu verstehen.
- Techniken zur Verhärterung von Modellen anzuwenden, um Machine-Learning-Pipelines sicherzustellen.
- Datenintegrität und -sicherheit in Machine-Learning-Modellen zu gewährleisten.
- Regulierungsanforderungen im Zusammenhang mit der AI-Sicherheit zu bewältigen.
Einführung in die KI-Sicherheit und Risikomanagement
14 StundenDiese von einem Dozenten geführte Live-Training in Schweiz (online oder vor Ort) richtet sich an IT-Sicherheits-, Risiko- und Compliance-Profis mit Anfängerschulung, die grundlegende KI-Sicherheitskonzepte, Bedrohungsszenarien und globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die einzigartigen Sicherheitsrisiken zu verstehen, die von KI-Systemen eingeführt werden.
- Bedrohungsszenarien wie feindselige Angriffe, Datenvergiftung und Modellinversion zu identifizieren.
- Grundlegende Regierungsmodelle wie das NIST KI-Risikomanagementrahmenwerk anzuwenden.
- Die Nutzung von KI mit aufkommenden Standards, Compliance-Richtlinien und ethischen Grundsätzen zu vereinbaren.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Datenschutz-freundliches maschinelles Lernen
14 StundenDiese von einem Trainer geleitete, live Training in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Fachkräfte, die Techniken wie verteiltes Lernen, sichere Mehrparteienberechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen maschinellen Lerntools implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsseltechniken des datenschutz-freundlichen maschinellen Lernens zu verstehen und zu vergleichen.
- Verteilte Lernsysteme mit Open-Source-Frameworks umzusetzen.
- Differenzielle Privatsphäre für sichere Datenübermittlung und Modelltrainings anzuwenden.
- Verschlüsselungs- und sicherheitsbasierte Berechnungstechniken zur Schutz von Modulin- und -outputs zu nutzen.
Red Teaming für KI-Systeme: Offensiver Sicherheitsschutz für ML-Modelle
14 StundenDiese von einem Dozenten geleitete, live-Trainingsveranstaltung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsfachleute und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren, Schwachstellen aufdecken und die Robustheit bereitgestellter KI-Modelle verbessern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Realistische Bedrohungen für maschinelle Lernmodelle zu simulieren.
- Adversariale Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von KI-APIs und Pipelines zu bewerten.
- Red-Teaming-Strategien für AI-Bereitstellungsumgebungen zu entwerfen.
Sicherung von KI-Modellen: Bedrohungen, Angriffe und Verteidigungsmaßnahmen
14 StundenDiese von einem Ausbilder geleitete, live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene maschinelle Lern- und Cybersecurity-Professionals, die verstehen und abmildigen möchten, welche neuen Bedrohungen gegen KI-Modelle bestehen. Dabei werden sowohl konzeptionelle Rahmenbedingungen als auch praktische Verteidigungsmaßnahmen wie robustes Training und differentialer Datenschutz genutzt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen wie feindselige Angriffe, Inversion und Vergiftung zu identifizieren und zu klassifizieren.
- Tools wie das Adversarial Robustness Toolbox (ART) zum Simulieren von Angriffen und Testen von Modellen zu nutzen.
- Praktische Verteidigungsmaßnahmen einschließlich feindseligen Trainings, Rauscheinjektion und datenschutzfreundliche Techniken anzuwenden.
- Bedrohungsbewusste Modellbewertungsstrategien in Produktionsumgebungen zu entwickeln.
Sicherheit und Datenschutz in TinyML-Anwendungen
21 StundenTinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.