Apache Spark Schulungen

Apache Spark Schulungen

Lokale, instruktorierte Live-Kurse von Apache Spark demonstrieren durch praktische Übungen, wie Spark in das Big Data-Ökosystem passt und wie Spark zur Datenanalyse verwendet wird Apache Spark Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt NobleProg Ihr lokaler Trainingsanbieter.

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Apache Spark Unterkategorien

Spark Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 hours
Überblick
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 hours
Überblick
Alluxio ist ein virtuelles verteiltes Open-Source-Speichersystem, das unterschiedliche Speichersysteme vereint und es Anwendungen ermöglicht, mit Speichergeschwindigkeit mit Daten zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Alluxio , um verschiedene Alluxio mit Speichersystemen zu verbinden und Daten im Petabyte-Bereich effizient zu verwalten, während sie mit Alluxio eine Anwendung Alluxio .

Am Ende dieser Schulung können die Teilnehmer:

- Entwickeln Sie eine Anwendung mit Alluxio
- Verbinden Sie Big Data-Systeme und -Anwendungen unter Beibehaltung eines Namespaces
- Extrahieren Sie effizient Werte aus Big Data in jedem Speicherformat
- Verbessern Sie die Workload-Leistung
- Bereitstellen und Verwalten von Alluxio eigenständiges Alluxio oder in Alluxio

Publikum

- Datenwissenschaftler
- Entwickler
- Systemadministrator

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Überblick
Bei der Big-Data-Analyse werden große Mengen unterschiedlicher Datensätze untersucht, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken.

Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld.

In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen

Publikum

- Entwickler
- Data Scientists

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 hours
Überblick
Viele Probleme der realen Welt können in Form von Diagrammen beschrieben werden. Zum Beispiel das Webdiagramm, das soziale Netzwerkdiagramm, das Zugnetzwerkdiagramm und das Sprachdiagramm. Diese Diagramme sind in der Regel sehr groß. Ihre Verarbeitung erfordert eine spezielle Reihe von Tools und Prozessen. Diese Tools und Prozesse können als Graph Computing (auch als Graph Analytics bezeichnet) bezeichnet werden.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphendaten kennen. Ziel ist es, reale Objekte, ihre Merkmale und Beziehungen zu identifizieren, diese Beziehungen dann zu modellieren und sie unter Verwendung eines Graph Computing Ansatzes (auch als Graph Analytics bezeichnet) als Daten zu verarbeiten. Wir beginnen mit einem umfassenden Überblick und beschränken uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Bereitstellungen durchgehen.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
- Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
- Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
- Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Überblick
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet.

In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Überblick
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern.

In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.

Publikum

- Entwickler
- Software-Architekten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Überblick
Magellan ist eine Open-Source-Engine für die verteilte Ausführung von Geodatenanalysen für Big Data. Auf Apache Spark implementiert, erweitert es Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics.

Dieses von Lehrern geleitete Live-Training führt in die Konzepte und Ansätze zur Implementierung von Geospacial Analytics ein und führt die Teilnehmer durch die Erstellung einer Predictive Analysis-Anwendung mit Magellan on Spark.

Am Ende dieser Schulung können die Teilnehmer:

- Effizientes Abfragen, Parsen und Verknüpfen von Geodatensätzen im Maßstab
- Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen
- Verwenden Sie den räumlichen Kontext, um die Funktionen von Mobilgeräten, Sensoren, Protokollen und Wearables zu erweitern

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Überblick
Apache Spark Lernkurve von Apache Spark nimmt zu Beginn langsam zu, es erfordert viel Mühe, um die erste Rendite zu erzielen. Dieser Kurs zielt darauf ab, durch den ersten schwierigen Teil zu springen. Nach dem Besuch dieses Kurses werden die Teilnehmer die Grundlagen von Apache Spark verstehen, RDD klar von DataFrame unterscheiden, Python und Scala API erlernen, Ausführende und Aufgaben verstehen usw. Auch nach den bewährten Methoden konzentriert sich dieser Kurs stark auf Cloud-Bereitstellung, Databricks und AWS. Die Schüler werden auch die Unterschiede zwischen AWS EMR und AWS Glue, einem der neuesten Spark-Services von AWS, verstehen.

PUBLIKUM:

Dateningenieur, DevOps , Datenwissenschaftler
21 hours
Überblick
ZIELSETZUNG:

Dieser Kurs wird Apache Spark vorstellen. Die Schüler lernen, wie Spark in das Big Data Ökosystem passt und wie Spark für die Datenanalyse verwendet wird. Der Kurs behandelt die Spark-Shell für die interaktive Datenanalyse, Spark-Interna, Spark-APIs, Spark- SQL , Spark-Streaming sowie maschinelles Lernen und graphX.

PUBLIKUM:

Entwickler / Datenanalysten
21 hours
Überblick
Python ist eine High-Level-Programmiersprache, die für ihre klare Syntax und Codelesbarkeit bekannt ist. Spark ist eine Datenverarbeitungs-Engine, die zum Abfragen, Analysieren und Transformieren von Big Data verwendet wird. PySpark können Benutzer Spark mit Python .

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an praktischen Übungen arbeiten.

Am Ende dieser Schulung können die Teilnehmer:

- Erfahren Sie, wie Sie Spark mit Python zum Analysieren von Big Data .
- Arbeiten Sie an Übungen, die die realen Umstände nachahmen.
- Verwenden Sie verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark .

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Überblick
Scala ist eine komprimierte Version von Java für die groß angelegte funktionale und objektorientierte Programmierung. Apache Spark Streaming ist eine erweiterte Komponente der Spark-API zur Verarbeitung großer Datenmengen als Echtzeit-Streams. Zusammen ermöglichen Spark Streaming und Scala das Streaming von Big Data.

Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Softwareentwickler, die Big Data mit Spark Streaming und Scala streamen möchten.

Am Ende dieser Schulung können die Teilnehmer:

- Erstellen Sie Spark-Anwendungen mit der Programmiersprache Scala .
- Verwenden Sie Spark Streaming, um kontinuierliche Datenströme zu verarbeiten.
- Verarbeiten Sie Datenströme in Echtzeit mit Spark Streaming.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Überblick
Spark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten. Spark SQL bietet Informationen zur Struktur der Daten sowie zur ausgeführten Berechnung. Mit diesen Informationen können Optimierungen durchgeführt werden. Zwei häufige Verwendungen von Spark SQL sind:
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen.

In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
35 hours
Überblick
MLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene.

Es teilt sich in zwei Pakete:

-

spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.

-

spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.

Publikum

Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark
Apache Spark Schulung, Spark boot camp, Apache Spark Abendkurse, Spark Wochenendkurse, Apache Spark Kurs, Spark Training, Apache Spark Seminar, Apache Spark Seminare, Spark Privatkurs, Apache Spark Coaching, Apache Spark Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Switzerland!

As a Business Development Manager you will:

  • expand business in Switzerland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!