
Lokale, instruktorierte Live-Kurse von Apache Spark demonstrieren durch praktische Übungen, wie Spark in das Big Data-Ökosystem passt und wie Spark zur Datenanalyse verwendet wird Apache Spark Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt NobleProg Ihr lokaler Trainingsanbieter.
Machine Translated
Erfahrungsberichte
Richard ist sehr ruhig und methodisch, mit einer analytischen Einsicht - genau die Qualitäten, die nötig sind, um diese Art von Kurs zu präsentieren.
Kieran Mac Kenna
Kurs: Spark for Developers
Machine Translated
Teilen Sie Konzeptdiagramm und Probe für die schmutzigen Hände auch
Mark Yang - FMR
Kurs: Spark for Developers
Machine Translated
Anwendbare Szenarien und Fälle
zhaopeng liu - Fmr
Kurs: Spark for Developers
Machine Translated
Fallanalyse
国栋 张
Kurs: Spark for Developers
Machine Translated
alle Teile dieser Sitzung
Eric Han - Fmr
Kurs: Spark for Developers
Machine Translated
Wir wissen viel mehr über die gesamte Umgebung.
John Kidd
Kurs: Spark for Developers
Machine Translated
Der Trainer hat die Klasse interessant und unterhaltsam gemacht, was beim täglichen Training sehr hilfreich ist.
Ryan Speelman
Kurs: Spark for Developers
Machine Translated
Ich denke, der Trainer hatte einen exzellenten Stil, Humor und Geschichten aus dem wirklichen Leben zu kombinieren, um die Themen sehr zugänglich zu machen. Ich würde diesen Professor in Zukunft sehr empfehlen.
Kurs: Spark for Developers
Machine Translated
Ernesto hat einen großartigen Job gemacht und die hochrangigen Konzepte der Verwendung von Spark und seiner verschiedenen Module erklärt.
Michael Nemerouf
Kurs: Spark for Developers
Machine Translated
Dies ist einer der besten praktischen Übungen, die ich je gemacht habe.
Laura Kahn
Kurs: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Dies ist eines der besten Online-Trainings, die ich je in meiner 13-jährigen Karriere gemacht habe. Mach weiter so!
Kurs: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Richard war sehr bereit zu schweigen, als wir halbbezogene Fragen zu Dingen stellen wollten, die nicht auf dem Lehrplan standen. Die Erklärungen waren klar und er war in jedem Rat, den er uns gab, in Bezug auf Vorbehalte offen.
ARM Limited
Kurs: Spark for Developers
Machine Translated
Die VM hat mir sehr gut gefallen Der Lehrer war sehr kenntnisreich über das Thema sowie andere Themen, er war sehr nett und freundlich Die Anlage in Dubai hat mir gefallen.
Safar Alqahtani - Elm Information Security
Kurs: Big Data Analytics in Health
Machine Translated
Übungsaufgaben
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Kurs: Python and Spark for Big Data (PySpark)
Machine Translated
Ajay war sehr freundlich, hilfsbereit und kannte sich auch mit dem Thema aus, über das er diskutierte.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurs: Spark for Developers
Machine Translated
Die Laborübungen. Anwendung der Theorie ab dem ersten Tag in den folgenden Tagen.
Dell
Kurs: A Practical Introduction to Stream Processing
Machine Translated
Der Lehrer hat das Trainingsprogramm an unsere aktuellen Bedürfnisse angepasst.
EduBroker Sp. z o.o.
Kurs: Python and Spark for Big Data (PySpark)
Machine Translated
Wenn Sie ähnliche Übungen auf unterschiedliche Weise durchführen, können Sie besser verstehen, was jede Komponente ( Hadoop / Spark, Standalone / Cluster) für sich und gemeinsam tun kann. Es gab mir Ideen, wie ich meine Anwendung auf meinem lokalen Computer testen sollte, wenn ich sie entwickle, im Vergleich zu der Bereitstellung auf einem Cluster.
Thomas Carcaud - IT Frankfurt GmbH
Kurs: Spark for Developers
Machine Translated
individuelle Aufmerksamkeit.
ARCHANA ANILKUMAR - PPL
Kurs: Python and Spark for Big Data (PySpark)
Machine Translated
Lernen Sie Funkenstreaming, DataBricks und AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Kurs: Apache Spark in the Cloud
Machine Translated
Der Inhalt und das Wissen.
Jobstreet.com Shared Services Sdn. Bhd.
Kurs: Apache Spark in the Cloud
Machine Translated
Es war sehr informativ. Ich hatte vor kurzem und sehr bis zum 26. Finner, dass dieser Kurs eine sehr gute Einführung in das Thema vorliegt.
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Es war toll, ein Verständnis dafür zu bekommen, was unter der Haube von Spark vor sich geht. Zu wissen, was unter der Haube vor sich geht, hilft zu verstehen, warum Ihr Code das tut, was Sie von ihm erwarten. Ein Großteil der Ausbildung war Hand auf, die immer toll ist und der Abschnitt über Optimierungen war außergewöhnlich relevant für meine aktuelle Arbeit, die schön war.
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Das ist eine große Klasse! Ich schätze, dass Andras sehr deutlich erklärt, was Funken ist alles, wo es kam, und welche Probleme es kann es lösen. Viel besser als andere Einführungen, die ich gesehen habe, dass es nur dann involviert, wie sie es benutzen. Andras hat eine tiefe Kenntnis des Themas und erklärt Dinge sehr gut.
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Die Live-Beispiele, die die Grundasimaspekte der Funke gegeben haben und zeigten.
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
1 . Richtiges Gleichgewicht zwischen hohen Ebenenkonzepten und technischen Details. 2. Andras ist sehr gut über seine Lehre. 3. Übung
Steven Wu - Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Hände auf Sitzung / Zuweisungen
Poornima Chenthamarakshan - Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Trainer berichtete das Training leicht auf der Grundlage der Publikumsanfrage, also werfen Sie einige Licht auf wenige Diffentik, die wir angefordert haben
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Sein Tempo war großartig. Ich liebte die Tatsache, dass er auch in die Theorie ging, damit ich verstehe, warum ich die Dinge tun würde, die er fragt.
Intelligent Medical Objects
Kurs: Apache Spark in the Cloud
Machine Translated
Ich denke, der Trainer hatte einen exzellenten Stil, Humor und Geschichten aus dem wirklichen Leben zu kombinieren, um die Themen sehr zugänglich zu machen. Ich würde diesen Professor in Zukunft sehr empfehlen.
Kurs: Spark for Developers
Machine Translated
Dies ist eines der besten Online-Trainings, die ich je in meiner 13-jährigen Karriere gemacht habe. Mach weiter so!
Kurs: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Apache Spark Unterkategorien
Spark Kurspläne
-
Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen.
Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop.
Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren.
Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume).
Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google.
Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
-
Effizient query, parse und join geospatiale datasets auf scale
Implementierung geospatialer Daten in Business Intelligence und voraussichtliche Analyse-Anwendungen
Verwenden Sie Raumkontext, um die Kapazitäten von mobilen Geräten, Sensoren, Logs und Träger zu erweitern
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Entwickeln Sie eine Anwendung mit Alluxio
Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces
Effizient Wert aus großen Daten in jedem Speicherformat extrahieren
Verbesserung der Workload Performance
Entfernen und verwalten Alluxio unabhängig oder klusteriert
-
Datenwissenschaftler
Entwickler
Systemadministrator
-
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen. In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden. Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
- Entwickler
- Software-Architekten
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen
- Entwickler
- Data Scientists
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Erstellen Sie Spark-Anwendungen mit der Programmiersprache Scala .
- Verwenden Sie Spark Streaming, um kontinuierliche Datenströme zu verarbeiten.
- Verarbeiten Sie Datenströme in Echtzeit mit Spark Streaming.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
-
Implementieren Sie eine Datenträgerarchitektur für die Verarbeitung großer Daten.
Entwickeln Sie eine Clusterinfrastruktur mit Apache Mesos und Docker.
Analysieren Sie Daten mit Spark und Scala.
Verwaltung unstrukturierter Daten mit Apache Cassandra.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installation und Konfiguration Apache Spark.
Die Unterschiede zwischen Apache Spark und Hadoop MapReduce und wann zu verwenden.
Schnell lesen und analysieren Sie sehr große Datensätze.
Integrieren Apache Spark mit anderen Maschinenlernen.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installieren und konfigurieren Apache Spark.
Erfahren Sie, wie.NET Spark APIs implementiert, damit sie von einer.NET-Anwendung zugänglich sind.
Entwickeln Sie Datenverarbeitungsanwendungen mit Hilfe von C# oder F#, die in der Lage sind, Datensätze zu verarbeiten, deren Größe in Terabiten und Pedabiten gemessen wird.
Entwickeln Sie Maschinenlearning-Funktionen für eine.NET-Anwendung mit Apache Spark Fähigkeiten.
Durchführen Sie die Explorationsanalyse mit SQL Queries auf Big Data Sets.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installieren und konfigurieren Sie Apache Hadoop.
Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common.
Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen.
Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren.
Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw.
Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
- spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
- spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
- Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
- Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
- Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
- Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Last Updated: