Schulungsübersicht

Überblick über das chinesische AI-GPU-Ökosystem

  • Vergleich von Huawei Ascend, Biren, Cambricon MLU
  • CUDA vs CANN, Biren SDK und BANGPy-Modelle
  • Industrietrends und Anbioter Ökosysteme

Bereitschaft für die Migration

  • Bewertung der CUDA-Codebasis
  • Aufzeigen von Zielflächen und SDK-Versionen
  • Installierung des Werkzeugsatzes und Umgebungssetup

Kodetranslationsmethoden

  • Porting von CUDA-Speicherknotenzugriff und Kernellogik
  • Zuordnung der Berechnungsgitter- und Threadmodelle
  • Automatisierte vs. manuelle Übersetzungsoptionen

Plattform-spezifische Implementierungen

  • Nutzung von Huawei CANN-Operatoren und benutzerdefinierten Kernen
  • Biren SDK-Umwandlungspipeline
  • Neubau von Modellen mit BANGPy (Cambricon)

Kreuzplattentests und -optimierungen

  • Profilieren der Ausführung auf jeder Zielplattform
  • Speichereinstellungen und Vergleiche zur parallelen Ausführung
  • Aufzeichnung und Iteration des Leistungsverhaltens

Verwaltung gemischter GPU-Umgebungen

  • Hybride Bereitstellungen mit mehreren Architekturen
  • Rücksetzstrategien und Geräteerkennung
  • Schichten der Abstraktion zur Codewartbarkeit

Fallstudien und Best Practices

  • Porting von Sehen/NLP-Modellen auf Ascend oder Cambricon
  • Erweiterung von Inferenzpipelines in Biren-Clustern
  • Umgang mit Versionsunterschieden und API-Lücken

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Erfahrung im Programmieren mit CUDA oder GPU-basierten Anwendungen
  • Verständnis der GPU Speichersysteme und Compute-Kerne
  • Bekanntschaft mit Workflows für die Bereitstellung oder Beschleunigung von AI-Modellen

Zielgruppe

  • GPU-Programmierer
  • Systemarchitekten
  • Migrationsfachkräfte
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien