Sicherheit und Datenschutz in TinyML-Anwendungen Schulung
TinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Schulungsübersicht
Einführung in die Sicherheit in TinyML
- Sicherheitsausforderungen in ressourcenbeschränkten ML-Systemen
- Bedrohungsmodelle für TinyML-Bereitstellungen
- Risikokategorien für eingebettete AI-Anwendungen
Datenschutz in Edge-AI
- Datenschutzaspekte für die Datenverarbeitung auf Geräten
- Minimierung der Datenexposition und -übertragung
- Techniken zur dezentralen Datenverarbeitung
Feindselige Angriffe auf TinyML-Modelle
- Modell-Evasion und -Vergiftungsbedrohungen
- Eingabemanipulation an eingebetteten Sensoren
- Bewertung der Anfälligkeiten in ressourcenbeschränkten Umgebungen
Sicherheitsverstärkung für eingebettetes ML
- Firmware- und Hardware-Schutzschichten
- Zugriffskontrolle und sichere Bootmechanismen
- Best Practices für den Schutz von Inferenzpipelines
Datenschutztechniken in TinyML
- Quantifizierung und Modell-Design für Datenschutz
- Techniken zur Anonymisierung auf Geräten
- Leichte Verschlüsselung und sichere Berechnungsmethoden
Sichere Bereitstellung und Wartung
- Sichere Bereitstellung von TinyML-Geräten
- OTA-Updates und Patching-Strategien
- Überwachung und Vorfallmanagement am Netzwerkrand
Testen und Validierung sicherer TinyML-Systeme
- Sicherheits- und Datenschutz-Testrahmen
- Simulation realistischer Angriffsszenarien
- Validierungs- und Compliance-Überlegungen
Fallstudien und angewandte Szenarien
- Sicherheitsversagen in Edge-AI-Ökosystemen
- Entwurf widerstandsfähiger TinyML-Architekturen
- Bewertung von Leistung und Schutz
Zusammenfassung und weitere Schritte
Voraussetzungen
- Ein Verständnis von Architekturen eingebetteter Systeme
- Erfahrung mit Workflows für maschinelles Lernen
- Kenntnisse der Grundlagen der IT-Sicherheit
Zielgruppe
- Sicherheitsanalytiker
- AI-Entwickler
- Eingebettete Ingenieure
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Sicherheit und Datenschutz in TinyML-Anwendungen Schulung - Buchung
Sicherheit und Datenschutz in TinyML-Anwendungen Schulung - Anfrage
Sicherheit und Datenschutz in TinyML-Anwendungen - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese von einem Trainer durchgeführte Live-Ausbildung in Schweiz (Online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsvoll und gemäß der sich ergebenden globalen Rahmenwerke wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und dem US-Exekutivbefehl zur KI sicher einsetzen kann.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken beim Einsatz von KI über Departments hinweg zu verstehen.
- Haupt-KI-Governancerahmen (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensausbringung von KI festzulegen.
- Einkaufs- und Verwendungsvorgaben für Drittanbieter- und internen KIs zu entwickeln.
Künstliche Intelligenz Risk Management und Sicherheit im öffentlichen Sektor
7 StundenArtificial Intelligence (AI) bringt neue Dimensionen von betriebswirtschaftlichen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Behörden und Abteilungen mit sich.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an IT- und Risiko-Fachkräfte des öffentlichen Sektors mit begrenzter Vorerfahrung in KI, die verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder von Regulatory-Bereichen bewerten, überwachen und schützen kann.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- Schlüsselkonzepte des Risikos bei KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- AI-spezifische Governance- und Auditing-Rahmungen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Threats zu erkennen, die KI-Modelle und Datendurchläufe zielen.
- Querschnittliche Risikomanagementpläne und Richtlinienabstimmungen für die Bereitstellung von KI festzulegen.
Format der Veranstaltung
- Interaktive Vorlesung und Diskussion über Verwendungsbeispiele im öffentlichen Sektor.
- Übungen zu AI-Governance-Rahmungen und Richtlinienzuordnung.
- Szenario-basiertes Threat-Modelling und Risikobewertung.
Anpassungsmöglichkeiten des Kurses
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte, um eine Anordnung vorzunehmen.
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM)
21 StundenDieses von einem Trainer geführte Live-Seminar (online oder vor Ort) richtet sich an IT-Professionals mit grundlegenden bis mittleren Kenntnissen, die ein Verständnis und die Implementierung von AI TRiSM in ihren Organisationen erwerben möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die wesentlichen Konzepte und die Bedeutung von Vertrauenswürdigkeit, Risikomanagement und Sicherheit in KI-Systemen zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und abzumildern.
- Best Practices für die Sicherheit von KI zu implementieren.
- Die Einhaltung von Vorschriften und ethische Überlegungen in der KI zu verstehen.
- Strategien zur wirksamen KI-Governance und -Verwaltung zu entwickeln.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
Cybersecurity in AI-Systemen
14 StundenDieses von einem Trainer durchgeführte, lebendige Training (online oder vor Ort) richtet sich an fortgeschrittene AI- und Cybersecurity-Profi-nale, die die Sicherheitslücken speziell für AI-Modelle und -Systeme verstehen und adressieren möchten. Insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung sind diese Kenntnisse von großer Bedeutung.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von feindlichen Angriffen auf AI-Systeme und Methoden zur Verteidigung gegen diese zu verstehen.
- Techniken zur Verhärterung von Modellen anzuwenden, um Machine-Learning-Pipelines sicherzustellen.
- Datenintegrität und -sicherheit in Machine-Learning-Modellen zu gewährleisten.
- Regulierungsanforderungen im Zusammenhang mit der AI-Sicherheit zu bewältigen.
Einführung in AI Security und Risk Management
14 StundenDiese von einem Dozenten angeführte Live-Ausbildung in Schweiz (online oder vor Ort) richtet sich an Einsteiger in der IT-Sicherheit, Risikomanagement und Compliance. Teilnehmer lernen grundlegende AI-Sicherheitskonzepte, Bedrohungsspektren sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 kennen.
Am Ende der Ausbildung können die Teilnehmer:
- Die einzigartigen Sicherheitsrisiken, die durch AI-Systeme eingeführt werden, verstehen.
- Bedrohungsspektren identifizieren wie feindliche Angriffe, Datensalat und Modellumkehrung.
- Grundlegende Governance-Modelle anwenden, wie das NIST AI Risk Management Framework.
- Die Nutzung von AI mit sich entwickelnden Standards, Compliance-Richtlinien und ethischen Prinzipien ausrichten.
Die Implementierung von KI auf Mikrocontrollern mit TinyML
21 StundenDieses von einem Trainer geleitete, live Training in Schweiz (online oder vor Ort) richtet sich an Fortgeschrittene Ingenieure für eingebettete Systeme und AI-Entwickler, die Machine-Learning-Modelle mit TensorFlow Lite und Edge Impulse auf Mikrocontroller bereitstellen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Grundlagen von TinyML und deren Vorteile für edge AI-Anwendungen zu verstehen.
- Eine Entwicklungsumgebung für TinyML-Projekte einzurichten.
- AI-Modelle auf energieeffiziente Mikrocontroller trainieren, optimieren und bereitstellen.
- TensorFlow Lite und Edge Impulse zur Implementierung von realen TinyML-Anwendungen nutzen.
- AI-Modelle für Energieeffizienz und Speicherbeschränkungen optimieren.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Datenschutz Machine Learning
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherer Multiparty-Rechnen, homomorphe Verschlüsselung und differentielle Datenschutz in realen maschinellem-Lern-Pipelines implementieren und evaluieren möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Schlüssige datenschützende Techniken im Maschinenlernen zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks zu implementieren.
- Differentiellen Datenschutz für sichere Datenaustausch und Modelltraining anzuwenden.
- Verschlüsselungstechniken und sicherer Rechnen zur Schutz von Eingaben und Ausgaben des Modells zu nutzen.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieser von einem Dozenten durchgeführte Live-Workshop (Online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Simulation von Angriffen auf KI-Systeme, die Erkennung von Schwachstellen und die Steigerung der Robustheit bereitgestellter AI-Modelle wünschen.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realitätsnahe Bedrohungen für maschinelles Lernen zu simulieren.
- Angreiferbeispiele zu generieren, um die Modellrobustheit zu testen.
- Die Angriffsoberfläche von KI-APIS und -Pipelines zu bewerten.
- Strategien für Rot-Teams in AI-Ausbauumgebungen zu entwerfen.
Securing Edge AI und eingebettete Intelligenz
14 StundenDiese von einem Trainer geleitete Live-Ausbildung in Schweiz (Online oder vor Ort) richtet sich an mittelsichverdienten Ingenieure und Sicherheitsexperten, die AI-Modelle am Rande gegen Bedrohungen wie Manipulation, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Deployments zu identifizieren und einzuschätzen.
- Manipulationsschutz und verschlüsselte Inferenztechniken anzuwenden.
- Edge-deployierte Modelle abzuhärten und Datenpipelines zu sichern.
- Bedrohungsminderungsstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieser von einem Lehrer durchgeführte Live-Workshop (vor Ort oder online) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cyber-Sicherheit, die sich mit Bedrohungen gegen AI-Modelle auseinandersetzen möchten. Dabei werden sowohl konzeptionelle Rahmenstrukturen als auch praktische Verteidigungsmaßnahmen wie robuste Trainingsmethoden und differenzierende Datenschutztechniken abgedeckt.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen zu identifizieren und einzustufen, wie zum Beispiel feindliche Angriffe, Inversionsanfälle und Vergiftung.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) einsetzen, um Angriffe zu simulieren und Modelle zu testen.
- Praktische Verteidigungsmaßnahmen anzuwenden, darunter feindliches Training, Rauscheinblendung und datenschutzfreundliche Techniken.
- Bedrohungsbewusste Bewertungsstrategien für Modelle in Produktionsumgebungen zu entwerfen.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.
Einführung in TinyML
14 StundenDieses von einem Trainer geleitete Live-Seminar (vor Ort oder online) richtet sich an Einsteiger-Engineer und Data Scientists, die die Grundlagen der TinyML verstehen möchten, ihre Anwendungen erkunden und AI-Modelle auf Mikrocontrollern einsetzen wollen.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die Grundlagen von TinyML und deren Bedeutung zu verstehen.
- leichtgewichtige AI-Modelle auf Mikrocontrollern und Edge-Geräten bereitzustellen.
- Machine-Learning-Modelle für geringen Energieverbrauch zu optimieren und abzustimmen.
- TinyML für Anwendungen wie Gestenerkennung, Ausreißerdetektion und Audioverarbeitung in der Realwelt anzuwenden.
TinyML: Ausführen von KI auf ultra-niedrigleistungsfähigen Edge-Geräten
21 StundenDieses von Dozenten geführte Live-Training in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene eingebettete Ingenieure, IoT-Entwickler und AI-Forscher, die TinyML-Techniken für AI-gesteuerte Anwendungen auf energieeffizienter Hardware implementieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Grundlagen von TinyML und Edge AI zu verstehen.
- Leichte AI-Modelle auf Mikrocontrollern bereitzustellen.
- AI-Schlussfolgerungen für geringen Energieverbrauch zu optimieren.
- TinyML mit realen IoT-Anwendungen zu integrieren.