Schulungsübersicht
- 
	Einführung in Scala- Kurze Einführung in Scala
- Labore: Kennenlernen von Scala
 
- 
	Spark Grundlagen- Hintergrund und Geschichte
- Spark und Hadoop
- Spark Konzepte und Architektur
- Spark Ökosystem (Kern, Spark SQL, MLlib, Streaming)
- Labore: Installieren und Ausführen von Spark
 
- 
	Erstes Vorgehen mit Spark- Ausführen von Spark im lokalen Modus
- Spark Web UI
- Spark Shell
- Datenanalyse – Teil 1
- Betrachten von RDDs
- Labore: Erforschen der Spark Shell
 
- 
	RDDs- RDD Konzepte
- Partitionen
- RDD-Operationen / Transformationen
- RDD-Typen
- Schlüssel-Wert-Paar RDDs
- MapReduce auf RDDs
- Caching und Persistenz
- Labore: Erstellen und Betrachten von RDDs; Cachen von RDDs
 
- 
	Spark API-Programmierung- Einführung in die Spark API / RDD API
- Absenden des ersten Programms an Spark
- Fehlersuche und Protokollierung
- Konfigurationseigenschaften
- Labore: Programmieren in der Spark API, Absenden von Jobs
 
- 
	Spark SQL- SQL-Unterstützung in Spark
- Dataframes
- Definieren von Tabellen und Importieren von Datensätzen
- Ausführen von SQL-Abfragen auf Dataframes
- Speicherformate: JSON / Parquet
- Labore: Erstellen und Abfragen von Dataframes; Auswerten von Datenformaten
 
- 
	MLlib- Einführung in MLlib
- MLlib-Algorithmen
- Labore: Schreiben von MLib-Anwendungen
 
- 
	GraphX- Übersicht über die GraphX-Bibliothek
- GraphX APIs
- Labore: Verarbeiten von Graphendaten mit Spark
 
- 
	Spark Streaming- Streaming-Übersicht
- Auswerten von Streaming-Plattformen
- Streaming-Operationen
- Gleitende Fensteroperationen
- Labore: Schreiben von Spark-Streaming-Anwendungen
 
- 
	Spark und Hadoop- Einführung in Hadoop (HDFS / YARN)
- Hadoop + Spark-Architektur
- Ausführen von Spark auf Hadoop YARN
- Verarbeiten von HDFS-Dateien mit Spark
 
- 
	Spark-Leistung und Optimierung- Broadcast-Variablen
- Akkumulatoren
- Speichermanagement & Caching
 
- 
	Spark-Operationen- Betreiben von Spark in der Produktion
- Muster für die Bereitstellung
- Konfigurationen
- Überwachung
- Fehlersuche
 
Voraussetzungen
VORAUSETZUNGEN
Erfahrung mit einer der Sprachen Java, Scala oder Python (unsere Laboren in Scala und Python)
Grundkenntnisse in Linux-Entwicklungsumgebungen (Befehlszeilennavigation, Bearbeiten von Dateien mit VI oder nano)
Erfahrungsberichte (6)
Ähnliche Übungen auf verschiedene Weisen durchzuführen, hilft wirklich dabei zu verstehen, was jeder Komponente (Hadoop/Spark, standalone/cluster) einzeln und zusammen leisten kann. Es gab mir Ideen dafür, wie ich meine Anwendung auf meinem lokalen Rechner testen sollte, wenn ich entwickle, im Vergleich dazu, wenn sie in einem Cluster bereitgestellt wird.
Thomas Carcaud - IT Frankfurt GmbH
Kurs - Spark for Developers
Maschinelle Übersetzung
Ajay war sehr freundlich, hilfsbereit und auch gut informiert über das Thema, über das er sprach.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurs - Spark for Developers
Maschinelle Übersetzung
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Kurs - Spark for Developers
Maschinelle Übersetzung
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Kurs - Spark for Developers
Maschinelle Übersetzung
We know a lot more about the whole environment.
John Kidd
Kurs - Spark for Developers
Maschinelle Übersetzung
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Kurs - Spark for Developers
Maschinelle Übersetzung
