Schulungsübersicht

Einführung

  • Überblick über die Funktionen und Architektur von Spark und Hadoop
  • Verstehen von Big Data
  • (4) Grundlagen der Programmierung

Erste Schritte

  • Einrichten von Python, Spark und Hadoop
  • Verstehen der Datenstrukturen in Python
  • Verstehen der PySpark-API
  • Verstehen von HDFS und MapReduce

Integration von Spark und Hadoop mit Python

  • Implementierung von Spark RDD in Python
  • Verarbeitung von Daten mit MapReduce
  • Erstellen verteilter Datensätze in HDFS

Machine Learning mit Spark MLlib

Verarbeitung von Big Data mit Spark Streaming

Arbeiten mit Empfehlungssystemen

Arbeiten mit Kafka, Sqoop, Kafka und Flume

Apache Mahout mit Spark und Hadoop

Fehlersuche

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Erfahrungen mit Spark und Hadoop
  • Python Programmiererfahrung

Publikum

  • Datenwissenschaftler
  • Entwickler
  21 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Erfahrungsberichte (3)

Kombinierte Kurse

Verwandte Kategorien