Schulungsübersicht
- Scala-Grundierung Eine kurze Einführung in Scala Labs: Kennenlernen der Scala Spark-Grundlagen Hintergrund und Geschichte Spark und Hadoop Spark-Konzepte und -Architektur Spark-Ökosystem (Kern, Spark SQL, Mlib, Streaming) Labs: Installieren und Ausführen von Spark Erster Blick auf Spark Running Spark in lokaler Modus Spark-Web-Benutzeroberfläche Spark-Shell Analysieren von Datensätzen – Teil 1 Überprüfen von RDDs Labore: Spark-Shell-Exploration von RDDs RDDs-Konzepte Partitionen RDD-Operationen/Transformationen RDD-Typen Schlüssel-Wert-Paar RDDs MapReduce für RDD Caching und Persistenz Labore: Erstellen und Überprüfen von RDDs; Caching von RDDs, Spark-API-Programmierung, Einführung in die Spark-API/RDD-API, Senden des ersten Programms an Spark, Debuggen/Protokollieren, Konfigurationseigenschaften, Labore: Programmieren in der Spark-API, Senden von Jobs, Spark-Unterstützung SQL SQL in Spark-Datenrahmen, Definieren von Tabellen und Importieren von Datensätzen, Abfragen von Daten Frames unter Verwendung von SQL Speicherformate: JSON / Parquet Labs: Erstellen und Abfragen von Datenframes; Auswerten von Datenformaten MLlib MLlib-Einführung MLlib-Algorithmen Übungen: Schreiben von MLib-Anwendungen GraphX Übersicht über die GraphX-Bibliothek GraphX-APIs Übungen: Verarbeiten von Diagrammdaten mit Spark Spark Streaming Streaming-Übersicht Evaluieren von Streaming-Plattformen Streaming-Operationen Schiebefensteroperationen Übungen: Schreiben von Spark-Streaming-Anwendungen Spark und Hadoop Hadoop-Einführung ( HDFS/YARN) Hadoop + Spark-Architektur Ausführen von Spark auf Hadoop YARN Verarbeiten von HDFS-Dateien mit Spark Spark-Leistung und -Tuning Broadcast-Variablen Akkumulatoren Speicherverwaltung und Caching Spark-Vorgänge Bereitstellen von Spark in der Produktion Beispielbereitstellungsvorlagen Konfigurationen Überwachung Fehlerbehebung
Voraussetzungen
VORAUSSETZUNGEN
Vertrautheit mit der Sprache Java / Scala / Python (unsere Praktika in Scala und Python) Grundkenntnisse der Linux-Entwicklungsumgebung (Befehlszeilennavigation / Bearbeitung von Dateien mit VI oder nano)
Erfahrungsberichte (6)
Ähnliche Übungen auf verschiedene Weisen durchzuführen, hilft wirklich dabei zu verstehen, was jeder Komponente (Hadoop/Spark, standalone/cluster) einzeln und zusammen leisten kann. Es gab mir Ideen dafür, wie ich meine Anwendung auf meinem lokalen Rechner testen sollte, wenn ich entwickle, im Vergleich dazu, wenn sie in einem Cluster bereitgestellt wird.
Thomas Carcaud - IT Frankfurt GmbH
Kurs - Spark for Developers
Maschinelle Übersetzung
Ajay war sehr freundlich, hilfsbereit und auch gut informiert über das Thema, über das er sprach.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurs - Spark for Developers
Maschinelle Übersetzung
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Kurs - Spark for Developers
Maschinelle Übersetzung
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Kurs - Spark for Developers
Maschinelle Übersetzung
We know a lot more about the whole environment.
John Kidd
Kurs - Spark for Developers
Maschinelle Übersetzung
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Kurs - Spark for Developers
Maschinelle Übersetzung