Schulungsübersicht

Einführung in die Biren GPU Architektur

  • Übersicht und Anwendungsfälle von Biren
  • Hardwareaufbau: Kerne, Speicher, Rechencluster
  • Vergleich mit NVIDIA und AMD GPUs

Einrichtung der Biren Programming Umgebung

  • Installation von Biren SDK und Runtime
  • Verständnis des Toolchains und Compilermodells
  • Grundlegende Projektstruktur und Buildprozess

GPU Programming mit der Biren Stack

  • Thread- und Blockmodelle
  • Speicherverwaltung und Datenübertragungen
  • Kernelentwicklung und Ausführungsabläufe

Portierung von CUDA zu Biren

  • Übersetzungstechniken für CUDA-Code
  • Gemeinsame API-Mapping und Anpassungen
  • Codekonvertierungsworkshops und Praxisübungen

Debugging und Profiling

  • Verwendung des Biren-Debuggers und -Profiler
  • Identifizierung von Flaschenhalsstellen
  • Speicherezessmuster und Optimierung

Optimierungsstrategien

  • Threadscheduling und Anweisungspipelining
  • Loop Unrolling und Nutzung von Shared Memory
  • Fortgeschrittene Kernel-Tuning für Durchsatz

Fallstudie und Anwendungsbeispiele

  • Trainieren eines Modells mit Biren-Acceleratoren
  • Portierung und Profiling eines Sehbild- oder NLP-Modells
  • Vergleich der Leistungsfähigkeit gegenüber CUDA/NVIDIA

Zusammenfassung und Nächste Schritte

Voraussetzungen

  • Ein Verständnis der GPU Architektur und Parallelverarbeitung
  • Erfahrung mit CUDA, OpenCL oder ähnlichen GPU Programmierumgebungen
  • Kenntnisse in Tiefenlernen- Frameworks wie PyTorch oder TensorFlow

Zielgruppe

  • HPC-Entwickler
  • AI-Infrastruktur-Ingenieure
  • Spezialisten für die Leistungsoptimierung
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien