
Local instructor-led live Hadoop training courses in Schweiz.
Hadoop Subcategories
Apache Hadoop Course Outlines
Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 Stunden
Python ist eine skalierbare, flexible und weit verbreitete Programmiersprache für die Datenwissenschaft und das Maschinenlernen. Spark ist ein Datenverarbeitungsmotor, der in der Umfrage, Analyse und Transformation von großen Daten verwendet wird, während Hadoop ein Software-Bibliothek-Framework für die Storage und Verarbeitung von großen Daten ist.
Diese Live-Training (online oder online) richtet sich an Entwickler, die Spark, Hadoop und Python verwenden und integrieren möchten, um große und komplexe Datensätze zu verarbeiten, zu analysieren und zu transformieren.
Am Ende dieser Ausbildung können die Teilnehmer:
-
Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen.
Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop.
Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren.
Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume).
Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google.
Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
7 Stunden
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
14 Stunden
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 Stunden
Alluxio ist ein open-source virtuelles verteilte Speicher-System, das unterschiedliche Speicher-Systeme vereint und Anwendungen ermöglicht, mit Daten bei Speichergeschwindigkeit zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet.
In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man Alluxio verschiedene Computing-Frameworks mit Speicher-Systemen zu verwenden und effizient Multi-Petabyte-Skala-Daten zu verwalten, während sie durch die Erstellung einer Anwendung mit Alluxio gehen.
Am Ende dieser Ausbildung können die Teilnehmer:
-
Entwickeln Sie eine Anwendung mit Alluxio
Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces
Effizient Wert aus großen Daten in jedem Speicherformat extrahieren
Verbesserung der Workload Performance
Entfernen und verwalten Alluxio unabhängig oder klusteriert
-
Datenwissenschaftler
Entwickler
Systemadministrator
-
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
35 Stunden
Publikum: Der Kurs richtet sich an IT-Spezialisten, die eine Lösung zum Speichern und Verarbeiten großer Datenmengen in einer verteilten Systemumgebung suchen Go al: Vertiefte Kenntnisse in der Hadoop Clusterverwaltung.
21 Stunden
Dieser Kurs richtet sich an Entwickler, Architekten, Datenwissenschaftler oder jedes Profil, das intensiven oder regelmäßigen Zugriff auf Daten erfordert. Der Schwerpunkt des Kurses liegt auf der Datenmanipulation und -transformation. Zu den Tools im Hadoop Ökosystem gehört die Verwendung von Pig und Hive beide häufig für die Datenumwandlung und -manipulation verwendet werden. Dieses Training befasst sich auch mit Leistungsmetriken und Leistungsoptimierung. Der Kurs ist ganz praktisch und wird durch Präsentationen der theoretischen Aspekte unterstrichen.
21 Stunden
Bei der Big-Data-Analyse werden große Mengen unterschiedlicher Datensätze untersucht, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken. Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld. In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren. Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen
- Entwickler
- Data Scientists
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Der Kurs richtet sich an IT-Spezialisten, die nach einer Lösung zum Speichern und Verarbeiten großer Datenmengen in verteilten Systemumgebungen suchen Kursziel: Kenntnisse in Bezug auf die Hadoop Clusterverwaltung erlangen
21 Stunden
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Serverclustern. In diesem dreitägigen (optionalen) Kurs lernen die Teilnehmer die Geschäftsvorteile und Anwendungsfälle für Hadoop und sein Ökosystem kennen, wie Clusterbereitstellung und -wachstum geplant werden, wie Hadoop installiert, gewartet, überwacht, Fehler behoben und optimiert wird. Sie üben auch das Laden von Cluster-Massendaten, machen sich mit verschiedenen Hadoop Distributionen vertraut und üben das Installieren und Verwalten von Hadoop Ökosystemtools. Der Kurs endet mit einer Diskussion über das Sichern von Clustern mit Kerberos. „… Die Materialien waren sehr gut vorbereitet und gründlich abgedeckt. Das Labor war sehr hilfreich und gut organisiert. “
- Andrew Nguyen, Hauptintegrations-DW-Ingenieur, Microsoft Online Advertising Publikum Hadoop Administratoren Format Vorlesungen und praktische Übungen, ungefähr 60% Vorlesungen, 40% Übungen.
- Andrew Nguyen, Hauptintegrations-DW-Ingenieur, Microsoft Online Advertising Publikum Hadoop Administratoren Format Vorlesungen und praktische Übungen, ungefähr 60% Vorlesungen, 40% Übungen.
21 Stunden
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data Hadoop bietet umfassende und umfassende Analysemöglichkeiten und bahnt sich einen Weg in die tradionelle BI-Analytics-Welt In diesem Kurs wird ein Analyst zu den Kernkomponenten von Hadoop eco system und seinen Analysen vorgestellt Publikum Business Analysten Dauer 3 Tage Format Vorlesungen und praktische Übungen .
28 Stunden
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Serverclustern. In diesem Kurs lernen Entwickler verschiedene Komponenten des Hadoop Ökosystems (HDFS, MapReduce, Pig, Hive und HBase) kennen.
21 Stunden
Apache Hadoop ist eines der beliebtesten Frameworks für die Verarbeitung von Big Data auf Serverclustern. Dieser Kurs befasst sich mit Datenmanagement in HDFS, Advanced Pig, Hive und HBase. Diese fortschrittlichen Programmiertechniken sind für erfahrene Hadoop Entwickler von Vorteil. Zielgruppe : Entwickler Dauer: drei Tage Format: Vorträge (50%) und praktische Übungen (50%).
21 Stunden
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
14 Stunden
Da immer mehr Software- und IT-Projekte von lokaler Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Speicherung von Big Data migrieren, müssen die Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die Konzepte und Praktiken zu erfassen, die für Big Data Projekte und -Chancen relevant sind. Dieser Kurs führt Projektmanager in das beliebteste Big Data Verarbeitungsframework ein: Hadoop . In dieser von Lehrern geleiteten Schulung lernen die Teilnehmer die Kernkomponenten des Hadoop Ökosystems kennen und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Durch das Erlernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie mit den Datenwissenschaftlern und Analysten zu kommunizieren, an denen viele IT-Projekte beteiligt sind. Publikum
- Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten
- Projektmanager müssen mit funktionsübergreifenden Teams kommunizieren, zu denen Big Data-Ingenieure, Data Scientists und Business Analysten gehören
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 Stunden
Publikum: Dieser Kurs soll Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass es nicht schwer zu verstehen ist.
28 Stunden
Hadoop ist ein beliebtes Big Data Verarbeitungsrahmen. Python ist eine hochwertige Programmiersprache berühmt für ihre klaren Syntax und Code-Lehbarkeit.
In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man mit Hadoop, MapReduce, Pig und Spark zu arbeiten, indem sie durch mehrere Beispiele und verwendete Fälle gehen.
Am Ende dieser Ausbildung können die Teilnehmer:
-
Verständnis der Grundkonzepte hinter Hadoop, MapReduce, Pig und Spark
Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark
Verwenden Sie Snakebite, um in HDFS programmierbar zugreifen zu können Python
Verwenden Sie mrjob, um MapReduce Jobs in zu schreiben Python
Schreiben Sie Spark-Programme mit Python
Erweitern Sie die Funktionalität der Schweine mit Python UDFs
Verwaltung von MapReduce Jobs und Pig Skripts mit Luigi
-
Entwickler
IT Fachleute
-
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
35 Stunden
Apache Hadoop ist ein beliebtes Datenverarbeitungsrahmen für die Verarbeitung von großen Datensätzen auf vielen Computern.
Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an Systemadministratoren, die lernen möchten, wie man Hadoop Clusters innerhalb ihrer Organisation einrichten, implementieren und verwalten möchte.
Am Ende dieser Ausbildung können die Teilnehmer:
-
Installieren und konfigurieren Sie Apache Hadoop.
Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common.
Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen.
Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren.
Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw.
Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
In diesem Kurs wird HBase vorgestellt - ein No SQL Speicher über Hadoop . Der Kurs richtet sich an Entwickler, die HBase zum Entwickeln von Anwendungen verwenden, sowie an Administratoren, die HBase-Cluster verwalten. Wir werden einen Entwickler durch die HBase-Architektur sowie die Datenmodellierung und Anwendungsentwicklung auf HBase führen. Außerdem werden die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung erläutert. Der Kurs ist sehr praktisch mit vielen Laborübungen.
Dauer : 3 Tage Zielgruppe : Entwickler und Administratoren
Dauer : 3 Tage Zielgruppe : Entwickler und Administratoren
14 Stunden
Audienz
- Entwickler
- Vorträge, praktische Übungen, kleine Tests auf dem Weg, um Verständnis zu messen
21 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird. Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi . Am Ende dieser Schulung können die Teilnehmer:
- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung. Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung. Am Ende dieser Schulung können die Teilnehmer:
- Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
- Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
- Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
- Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.
- Entwickler
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
14 Stunden
Sqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes. Es kann zum Importieren von Daten aus einem relationalen Datenbankverwaltungssystem (RDBMS) wie My SQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) verwendet werden. Danach können die Daten in Hadoop MapReduce transformiert und anschließend wieder in ein RDBMS exportiert werden. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie mit Sqoop Daten aus einer traditionellen relationalen Datenbank in einen Hadoop Speicher wie HDFS oder Hive importieren und umgekehrt. Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Sqoop
- Importieren Sie Daten aus My SQL in HDFS und Hive
- Importieren Sie Daten aus HDFS und Hive in My SQL
- Systemadministratoren
- Dateningenieure
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 Stunden
Cloudera Impala ist eine quelloffene, massiv-parallele Verarbeitungs-Engine (MPP) SQL für Apache Hadoop-Cluster.
Impala ermöglicht Benutzern Abfragen mit niedriger Latenz SQL auf Daten, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne dass eine Datenbewegung oder -umwandlung erforderlich ist.
Publikum
Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die Daten, die in Hadoop gespeichert sind, mit Business Intelligence- oder SQL Tools analysieren.
Nach diesem Kurs werden die Teilnehmer in der Lage sein
-
Extrahieren aussagekräftiger Informationen aus Hadoop-Clustern mit Impala.
Spezielle Programme schreiben, um Business Intelligence in Impala SQL Dialekt zu erleichtern.
Fehlersuche in Impala.
21 Stunden
Apache Ambari ist eine Open-Source-Verwaltungsplattform für die Bereitstellung, Verwaltung, Überwachung und Sicherung von Apache Hadoop Clustern. In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer die von Ambari bereitgestellten Management-Tools und -Praktiken kennen, um Hadoop Cluster erfolgreich zu verwalten. Am Ende dieser Schulung können die Teilnehmer:
- Richten Sie mit Ambari einen Live- Big Data Cluster ein
- Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an
- Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie
- Verbessern Sie die Leistung eines Hadoop Clusters durch Optimieren und Optimieren
- DevOps
- Systemadministratoren
- DBAs
- Hadoop Testprofis
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 Stunden
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet. In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt. Am Ende dieser Schulung können die Teilnehmer:
- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Last Updated:
Andere Länder
Consulting
Hadoop Schulung, Apache Hadoop boot camp, Hadoop Abendkurse, Apache Hadoop Wochenendkurse, Hadoop Kurs, Apache Hadoop Training, Hadoop Seminar, Hadoop Seminare, Apache Hadoop Privatkurs, Hadoop Coaching, Hadoop Lehrer