Schulungsübersicht

Einführung in Teradata

Modul 1: Grundlagen und Architektur von Teradata

  • Was ist Teradata und für welche Zwecke wird es verwendet?
  • Parallel-Architektur: AMPs, PEs, BYNET
  • Dateneinheitlichkeits- und Hashingverfahren
  • Kernkonzepte: Sitzungen, Spool, Schutzmechanismen
  • Systemverbindung: Teradata Studio / BTEQ / SQL Assistent

Modul 2: Einführung in SQL in Teradata

  • Grundlegende SELECT, WHERE, ORDER BY
  • Datentypen und Casting
  • Mathematische und Datumsfunktionen
  • Verwendung von ALIAS, CASE-Ausdrücken
  • Teradata-spezifische Operatoren (TOP, QUALIFY, SAMPLE)
  • Führungsdurch: Abfragen auf echten Tabellen

Modul 3: Joins, Unterabfragen und Mengenoperatoren

  • INNER, LEFT, RIGHT, FULL OUTER JOIN
  • Joins ohne ON-Klausel (kartesisches Produkt)
  • Skalar- und korrelierte Unterabfragen
  • UNION, INTERSECT, MINUS
  • Praktische Übungen zur Datenintegration

Modul 4: Analytische und OLAP-Funktionen

  • RANK(), ROW_NUMBER(), DENSE_RANK()
  • Datenaufteilung mit PARTITION BY
  • Fensterfunktionalität mit OVER() und ORDER BY
  • LAG(), LEAD(), FIRST_VALUE()
  • Anwendungsfälle: KPIs, Trends, kumulative Werte

Modul 5: Daten- und TabellenManagement

  • Tabellentypen: permanent, volatile, globale temporäre
  • Erstellen und Verwenden von sekundären und Join-Indizes
  • Einfügen, Aktualisieren und Löschen von Daten
  • MERGE, UPSERT und Duplikatkontrolle
  • Transaktionen und Schutzmechanismen-Kontrolle

Modul 6: Optimierung und Leistungssteigerung

  • Teradata-Optimizer: wie er Ausführungspläne auswählt
  • Verwendung von EXPLAIN und STATISTIKSAMMELN
  • Skew und wie man ihn vermeidet
  • Best Practices zur Abfragegestaltung
  • Auffinden von Flaschenhalsen (Spool, Schutzmechanismen, Neuverteilung)
  • Praxis: Vergleich optimierter und nicht-optimierter Abfragen

Modul 7: Datenaufteilung und Komprimierung

  • Aufteilungstypen: Bereich, Fallunterscheidungen, Mehrstufige
  • Vorteile und praktische Anwendung in großen Abfragen
  • Block Level Komprimierung (BLC) und Spaltenspeicherkomprimierung
  • Vorteile und Einschränkungen

Modul 8: Datenladung und Extraktion

  • TPT (Teradata Parallel Transporter) im Vergleich zu FastLoad / MultiLoad
  • Massenladung im Vergleich zu Batch-Inserts
  • Fehlerbehandlung und Wiederholungen
  • Export von Ergebnissen in Dateien oder externe Systeme
  • Grundlegende Automatisierung mit Skripten und Hilfsprogrammen

Modul 9: Grundlegende Administration für technische Benutzer

  • Rollen und Berechtigungen
  • Ressourcenkontrolle (Abfragebanden, Prioritätsscheduler)
  • Überwachung mit DBQLOGTBL, DBC.Tables, ResUsage
  • Best Practices für gemeinsame Umgebungen

Modul 10: End-to-end Integration Lab

  • End-to-end praktischer Fall:
  • Datenladung
  • Transformation und Aggregation
  • Erstellen von KPIs mit OLAP-Funktionen
  • Optimierung und EXPLAIN
  • Endgültiger Export
  • Diskussion über Best Practices und häufige Fehler

Zusammenfassung und Nächste Schritte

Voraussetzungen

  • Verständnis von relationalen Datenbanken und SQL-Konzepten
  • Erfahrung mit dem Abfragen großer Datensätze oder der Arbeit in datengestützten Umgebungen
  • Kenntnisse über Geschäftsintelligenz- oder Analyseziele

Zielgruppe

  • Datenanalysten und Fachkräfte für Geschäftsintelligenz
  • SQL-Entwickler und Dateningenieure
  • Technische Benutzer, die Daten in Teradata-Umgebungen verwalten oder optimieren
 35 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien