Schulungsübersicht

Grundlagen des Data-Warehousing

  • Zweck, Komponenten und Architektur der Warehouse
  • Datamarts, Unternehmenswarehouses und Lakehouse-Muster

Dimensionsmodellierung

  • Tatsachen, Dimensionen und Granularität
  • Sternschema im Vergleich zum Schneeflockenschema
  • Arten von langsam sich verändernden Dimensionen und deren Handhabung

ETL- und ELT-Prozesse

  • Austrittsstrategien aus OLTP und APIs
  • Transformation, Datenaufbereitung und Konformität
  • Ladekonzepte, Orchestrierung und Abhängigkeitsmanagement

Datenqualität und Metadatengestion

  • Datenprofilierung und Validierungsregeln
  • Ausrichtung von Master- und Referenzdaten
  • Vorherrschaft, Kataloge und Dokumentation

Analytics und Leistung

  • Kubieren-Konzepte, Aggregationen und materialisierte Sichten
  • Aufteilung, Clustering und Indexierung für Analytics
  • Arbeitslastmanagement, Zwischenspeicherung und Abfragemessung

Sicherheit und Governance

  • Zugriffskontrolle, Rollen und Zeilenstufe-Sicherheit
  • Konformitätsaspekte und Prüfung
  • Backup, Wiederherstellung und Zuverlässigkeitspraktiken

Moderne Architekturen

  • Cloud Data-Warehouses und Elastizität
  • Streaming-Ingestion und nahezu Echtzeit-Analytics
  • Kostenoptimierung und Überwachung

Kapstone: Von der Quelle zum Sternschema

  • Modellierung eines Geschäftsprozesses in Tatsachen und Dimensionen
  • Aufbau eines end-to-end ETL- oder ELT-Ablaufs
  • Veröffentlichung von Dashboards und Validierung von Metriken

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Eine Verständnis von relationalen Datenbanken und SQL
  • Erfahrung im Bereich Datenanalyse oder -berichterstattung
  • Basiskenntnisse in Cloud- oder On-Premises-Dataplattformen

Zielgruppe

  • Datenanalysten, die sich dem Data-Warehousing zuwenden
  • BI-Entwickler und ETL-Ingenieure
  • Datenarchitekten und Teamleiter
 35 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien