Kontakt aufnehmen

Schulungsübersicht

iOS ML-Umgebung & Entwicklungsumgebung

  • Apples On-Device-ML-Architektur: CoreML, Vision, Speech, NaturalLanguage
  • Einrichtung der Entwicklungsumgebung: Anaconda, Python, Xcode und Swift
  • Einführung in coremltools und die iOS-ML-Konvertierungspipeline
  • Labor 1: macOS/Swift-Umgebung validieren, Python/Anaconda einrichten und Xcode-Befehlszeilenintegration überprüfen

Training benutzerdefinierter Modelle mit Python & beliebten ML-Bibliotheken

  • Modellauswahl: Wann Keras/TensorFlow versus scikit-learn versus libsvm zu verwenden ist
  • Datenvorverarbeitung, Trainingsschleifen und Bewertungsmetriken in Python
  • Integration von Anaconda & Spyder für effiziente Modellentwicklung und Debugging
  • Umgang mit Legacy-Modellen: Importieren von Caffe-Netzwerken über coremltools
  • Labor 2: Trainieren eines benutzerdefinierten Klassifizierungs-/Regression-Modells in Python (Keras/scikit-learn) und Export nach .h5/.pkl

Konvertierung von Modellen zu CoreML & iOS-Integration

  • Verwenden von coremltools, um TensorFlow-, Keras-, scikit-learn-, libsvm- und Caffe-Modelle in .mlmodel zu konvertieren
  • Überprüfen von CoreML-Modellen in Xcode: Schichten, Eingaben/Ausgaben, Präzision und Optimierungsstufen
  • Laden von CoreML-Modellen in Swift: MLModel, MLFeatureProvider und asynchrone Inferenz
  • Labor 3: Ein in Python trainiertes Modell in CoreML konvertieren, in Xcode überprüfen und in einem Swift-Playground laden

Bauen von iOS-Intelligenz mit CoreML & Vision

  • Vision-Framework: Gesichtserkennung, Objekterkennung, Texterkennung und Barcode-Scannen
  • CoreGraphics-Integration: Bildvorverarbeitung, ROI-Maskierung und Overlay-Rendering
  • GameplayKit: Anwenden von KI-Verhaltensbäumen, Pfadsuche und Spiellogik parallel zur ML in der App
  • Optimierung der Echtzeitinferenz: Multi-Modell-Pipelines, Caching und Speicherverwaltung
  • Labor 4: Implementieren einer Echtzeit-Bildanalysefunktion mit Vision + benutzerdefiniertem CoreML-Modell + CoreGraphics-Overlay

Spracherkennung, NLP & Siri-Integration

  • Speech-Framework: Echtzeit-Sprach-zu-Text, benutzerdefiniertes Vokabular und Sprachmodell-Injektion
  • NaturalLanguage-Framework: Tokenisierung, Stimmungsanalyse, NER und Sprachidentifikation
  • SiriKit & Shortcuts: Hinzufügen von Sprachbefehlen, benutzerdefinierten Intents und On-Device-Siri-Unterstützung
  • Datenschutz & Sicherheit: CoreML-Sandboxing, Datenverschlüsselung und Abwägungen zwischen On-Device- und Cloud-Inferenz
  • Labor 5: Hinzufügen von Sprachbefehlen, Textanalyse und Siri Shortcuts zur iOS-App

Capstone-Projekt & App-Bereitstellung

  • Von der Modellentwicklung zur Produktivität: Python-Training → CoreML-Konvertierung → Swift UI → iOS-Bereitstellung
  • Leistungsprofiling: Instruments, CoreML-Diagnosen und Modellquantisierung (FP16/INT8)
  • App Store-Richtlinien für ML-Apps: Größenbegrenzungen, Datenschutzmanifeste und On-Device-Datenverarbeitung
  • Capstone: Bereitstellen einer vollständigen iOS-App mit einem benutzerdefinierten CoreML-Modell, Vision-Verarbeitung, Spracherkennung/NLP-Funktionen und Siri-Integration
  • Überprüfung, Fragen & Nächste Schritte: Skalieren zu SwiftUI, Core ML Multi-Modal und MLOps für iOS

Um eine maßgeschneiderte Kursübersicht für dieses Training anzufordern, kontaktieren Sie uns bitte.

Voraussetzungen

  • Erwiesene Erfahrung in der Programmierung mit Swift (Xcode, SwiftUI/UIKit, async/await, Closures)
  • Keine Vorkenntnisse im Bereich Maschinelles Lernen oder Data Science erforderlich
  • Grundkenntnisse in der Befehlszeile und Python-Syntax sind hilfreich

Zielgruppe

  • iOS- und Mobil-Entwickler
  • Software-Ingenieure, die zu on-device-KI wechseln
  • Technische Leiter, die iOS-ML-Bereitstellungsstrategien bewerten
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien