Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
iOS ML-Umgebung & Entwicklungsumgebung
- Apples On-Device-ML-Architektur: CoreML, Vision, Speech, NaturalLanguage
- Einrichtung der Entwicklungsumgebung: Anaconda, Python, Xcode und Swift
- Einführung in coremltools und die iOS-ML-Konvertierungspipeline
- Labor 1: macOS/Swift-Umgebung validieren, Python/Anaconda einrichten und Xcode-Befehlszeilenintegration überprüfen
Training benutzerdefinierter Modelle mit Python & beliebten ML-Bibliotheken
- Modellauswahl: Wann Keras/TensorFlow versus scikit-learn versus libsvm zu verwenden ist
- Datenvorverarbeitung, Trainingsschleifen und Bewertungsmetriken in Python
- Integration von Anaconda & Spyder für effiziente Modellentwicklung und Debugging
- Umgang mit Legacy-Modellen: Importieren von Caffe-Netzwerken über coremltools
- Labor 2: Trainieren eines benutzerdefinierten Klassifizierungs-/Regression-Modells in Python (Keras/scikit-learn) und Export nach .h5/.pkl
Konvertierung von Modellen zu CoreML & iOS-Integration
- Verwenden von coremltools, um TensorFlow-, Keras-, scikit-learn-, libsvm- und Caffe-Modelle in .mlmodel zu konvertieren
- Überprüfen von CoreML-Modellen in Xcode: Schichten, Eingaben/Ausgaben, Präzision und Optimierungsstufen
- Laden von CoreML-Modellen in Swift: MLModel, MLFeatureProvider und asynchrone Inferenz
- Labor 3: Ein in Python trainiertes Modell in CoreML konvertieren, in Xcode überprüfen und in einem Swift-Playground laden
Bauen von iOS-Intelligenz mit CoreML & Vision
- Vision-Framework: Gesichtserkennung, Objekterkennung, Texterkennung und Barcode-Scannen
- CoreGraphics-Integration: Bildvorverarbeitung, ROI-Maskierung und Overlay-Rendering
- GameplayKit: Anwenden von KI-Verhaltensbäumen, Pfadsuche und Spiellogik parallel zur ML in der App
- Optimierung der Echtzeitinferenz: Multi-Modell-Pipelines, Caching und Speicherverwaltung
- Labor 4: Implementieren einer Echtzeit-Bildanalysefunktion mit Vision + benutzerdefiniertem CoreML-Modell + CoreGraphics-Overlay
Spracherkennung, NLP & Siri-Integration
- Speech-Framework: Echtzeit-Sprach-zu-Text, benutzerdefiniertes Vokabular und Sprachmodell-Injektion
- NaturalLanguage-Framework: Tokenisierung, Stimmungsanalyse, NER und Sprachidentifikation
- SiriKit & Shortcuts: Hinzufügen von Sprachbefehlen, benutzerdefinierten Intents und On-Device-Siri-Unterstützung
- Datenschutz & Sicherheit: CoreML-Sandboxing, Datenverschlüsselung und Abwägungen zwischen On-Device- und Cloud-Inferenz
- Labor 5: Hinzufügen von Sprachbefehlen, Textanalyse und Siri Shortcuts zur iOS-App
Capstone-Projekt & App-Bereitstellung
- Von der Modellentwicklung zur Produktivität: Python-Training → CoreML-Konvertierung → Swift UI → iOS-Bereitstellung
- Leistungsprofiling: Instruments, CoreML-Diagnosen und Modellquantisierung (FP16/INT8)
- App Store-Richtlinien für ML-Apps: Größenbegrenzungen, Datenschutzmanifeste und On-Device-Datenverarbeitung
- Capstone: Bereitstellen einer vollständigen iOS-App mit einem benutzerdefinierten CoreML-Modell, Vision-Verarbeitung, Spracherkennung/NLP-Funktionen und Siri-Integration
- Überprüfung, Fragen & Nächste Schritte: Skalieren zu SwiftUI, Core ML Multi-Modal und MLOps für iOS
Um eine maßgeschneiderte Kursübersicht für dieses Training anzufordern, kontaktieren Sie uns bitte.
Voraussetzungen
- Erwiesene Erfahrung in der Programmierung mit Swift (Xcode, SwiftUI/UIKit, async/await, Closures)
- Keine Vorkenntnisse im Bereich Maschinelles Lernen oder Data Science erforderlich
- Grundkenntnisse in der Befehlszeile und Python-Syntax sind hilfreich
Zielgruppe
- iOS- und Mobil-Entwickler
- Software-Ingenieure, die zu on-device-KI wechseln
- Technische Leiter, die iOS-ML-Bereitstellungsstrategien bewerten
14 Stunden
Erfahrungsberichte (1)
Die Art der Wissensübertragung und das Wissen des Trainers.
Jakub Rekas - Bitcomp Sp. z o.o.
Kurs - Machine Learning on iOS
Maschinelle Übersetzung