Stream processing Schulungen

Stream processing Schulungen

Lokale, instruktorierte Live-Stream-Processing-Schulungen demonstrieren durch interaktive Diskussionen und üben die Grundlagen und fortgeschrittenen Themen der Stream-Verarbeitung Stream-Processing-Schulungen sind als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt NobleProg Ihr lokaler Trainingsanbieter.

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Stream processing Kurspläne

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
21 hours
Overview
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
14 hours
Overview
Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Confluent Platform.
- Verwenden Sie die Verwaltungstools und -dienste von Confluent, um Kafka einfacher auszuführen.
- Speichern und verarbeiten Sie eingehende Stream-Daten.
- Optimieren und verwalten Sie Kafka-Cluster.
- Sichere Datenströme.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Dieser Kurs basiert auf der Open Source-Version von Confluent: Confluent Open Source.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 hours
Overview
Apache Flink ist ein Open-Source-Framework für die skalierbare Stream- und Batch-Datenverarbeitung.

Dieses Live-Training unter Anleitung eines Lehrers führt in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink .

Am Ende dieser Schulung können die Teilnehmer:

- Richten Sie eine Umgebung für die Entwicklung von Datenanalyseanwendungen ein.
- Packen, Ausführen und Überwachen von Flink-basierten, fehlertoleranten Daten-Streaming-Anwendungen.
- Verwalten Sie unterschiedliche Workloads.
- Führen Sie erweiterte Analysen mit Flink ML durch.
- Richten Sie einen Flink-Cluster mit mehreren Knoten ein.
- Leistung messen und optimieren.
- Integrieren Sie Flink in verschiedene Big Data Systeme.
- Vergleichen Sie die Flink-Funktionen mit denen anderer Big-Data-Frameworks.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern.

In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.

Publikum

- Entwickler
- Software-Architekten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Overview
Confluent K SQL ist ein Stream-Processing-Framework, das auf Apache Kafka . Es ermöglicht die Echtzeit-Datenverarbeitung mit SQL Operationen.

Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Confluent K SQL .
- Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
- Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
- Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Overview
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln.

Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.

Publikum

- Entwickler
- Administratoren

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung.

Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
- Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
- Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
- Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 hours
Overview
Apache Storm ist eine verteilte Echtzeit-Berechnungs-Engine, die Echtzeit-Business Intelligence ermöglicht Dies wird dadurch erreicht, dass es Anwendungen ermöglicht, unbegrenzte Datenströme zuverlässig zu verarbeiten (auch Stream-Verarbeitung genannt) "Storm verarbeitet Echtzeit, was Hadoop für die Stapelverarbeitung ist!" In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache Storm installiert und konfiguriert wird, und entwickeln und implementieren dann eine Apache Storm-Anwendung für die Verarbeitung großer Datenmengen in Echtzeit Einige der Themen in diesem Training gehören: Apache Storm im Kontext von Hadoop Mit unbegrenzten Daten arbeiten Kontinuierliche Berechnung Echtzeit-Analyse Verteilte RPC- und ETL-Verarbeitung Fordern Sie diesen Kurs jetzt an! Publikum Software- und ETL-Entwickler Mainframe-Profis Datenwissenschaftler Big Data-Analysten Hadoop-Profis Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
Stream processing Schulung, Stream processing boot camp, Stream processing Abendkurse, Stream processing Wochenendkurse, Stream processing Kurs, Stream processing Training, Stream processing Seminar, Stream processing Seminare, Stream processing Privatkurs, Stream processing Coaching, Stream processing Lehrer

Sonderangebote

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Switzerland!

As a Business Development Manager you will:

  • expand business in Switzerland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!