Schulungsübersicht

Einführung in TinyML und eingebettete KI

  • Charakteristika der Bereitstellung von TinyML-Modellen
  • Beschränkungen in Mikrocontroller-Umgebungen
  • Überblick über eingebettete KI-Toolchains

Grundlagen der Modelloptimierung

  • Verständnis von Berechnungsflaschenhälse
  • Identifizierung speicherintensiver Operationen
  • Baseline-Leistungsmessung

Quantisierungsverfahren

  • Post-Training-Quantisierungstrategien
  • Quantisierungsbewusstes Training
  • Bewertung von Genauigkeit versus Ressourcen-Kompromissen

Pruning und Komprimierung

  • Strukturierte und unstrukturierte Pruning-Methoden
  • Gewichtsteilen und Modellsparsität
  • Komprimierungsverfahren für leichtgewichtiges Inferenz

Hardware-bewusste Optimierung

  • Bereitstellung von Modellen auf ARM Cortex-M-Systemen
  • Optimierung für DSP und Accelerator-Erweiterungen
  • Speicherzuordnung und Datenfluss-Betrachtungen

Benchmarking und Validierung

  • Latenz- und Durchsatzanalyse
  • Leistungsverbrauchsmessungen
  • Genauigkeits- und Robustheitstests

Bereitstellungsabläufe und Tools

  • Verwendung von TensorFlow Lite Micro für eingebettete Bereitstellung
  • Integration von TinyML-Modellen in Edge Impulse-Pipelines
  • Testing und Debugging auf realer Hardware

Fortgeschrittene Optimierungsstrategien

  • Neural Architecture Search für TinyML
  • Hybrid-Quantisierung-Pruning-Ansätze
  • Modell-Distillation für eingebettetes Inferenz

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Verständnis von maschinellen Lernabläufen
  • Erfahrung mit eingebetteten Systemen oder Mikrocontroller-basierten Entwicklungen
  • Kenntnisse in Python-Programmierung

Zielgruppe

  • AI-Forscher
  • Eingebettete ML-Ingenieure
  • Professionelle, die an Ressourcen-eingeschränkten Inferenzsystemen arbeiten
 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien