Stream processing Schulungen

Stream processing Schulungen

Von Lehrern geleitete Live-Stream-Processing-Schulungen online oder vor Ort veranschaulichen durch interaktive Diskussionen und praktische Übungen die Grundlagen und fortgeschrittenen Themen der Stream-Verarbeitung. Die Stream-Processing-Schulung ist als „Online-Live-Schulung“ oder „Vor-Ort-Live-Schulung“ verfügbar. Das Online-Live-Training (auch „Remote-Live-Training“) wird über einen interaktiven Remote-Desktop durchgeführt. Live-Schulungen vor Ort können vor Ort beim Kunden in Schweiz oder in den NobleProg-Schulungszentren in Schweiz durchgeführt werden. NobleProg – Ihr lokaler Schulungsanbieter

Machine Translated

Stream processing Course Outlines

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
14 Stunden
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung. Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung. Am Ende dieser Schulung können die Teilnehmer:
  • Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
  • Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
  • Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
  • Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.
Publikum
  • Entwickler
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
14 Stunden
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 Stunden
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln. Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen. Publikum
  • Entwickler
  • Administratoren
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Hinweis
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben. Am Ende dieser Schulung können die Teilnehmer:
  • Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
  • Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
  • Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
  • Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
  • Erstellen, packen und implementieren Sie die Anwendung
Publikum
  • Entwickler
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
21 Stunden
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern. In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
  • Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
  • Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
  • Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
  • Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Publikum
  • Entwickler
  • Software-Architekten
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Confluent Platform.
  • Verwenden Sie die Verwaltungstools und -dienste von Confluent, um Kafka einfacher auszuführen.
  • Speichern und verarbeiten Sie eingehende Stream-Daten.
  • Optimieren und verwalten Sie Kafka-Cluster.
  • Sichere Datenströme.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Dieser Kurs basiert auf der Open Source-Version von Confluent: Confluent Open Source.
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Apache Kafka ist eine Open-Source-Stream-Plattform, die eine schnelle, zuverlässige und geringfügige Plattform zur Verarbeitung von Datenanalytik in Echtzeit bietet. Apache Kafka kann mit verfügbaren Programmiersprachen wie Python integriert werden. Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die Funktionen Apache Kafka in Datenstreaming mit [0 verwenden möchten. Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein zu verwenden Apache Kafka zu überwachen und zu verwalten Bedingungen in kontinuierlichen Datenströme mit Python Programmierung. Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
28 Stunden
This instructor-led, live training in Schweiz introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
21 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Apachi NiFi.
  • Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
  • Datenflüsse automatisieren.
  • Aktivieren Sie die Streaming-Analyse.
  • Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
  • Verwandeln Sie Big Data in Business Insights.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi . Am Ende dieser Schulung können die Teilnehmer:
  • Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
  • Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
  • Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
  • Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 Stunden
Apache Storm ist ein verteilter, real-time Computing-Motor, der zur Bereitstellung von Business Intelligence in real-time verwendet wird. Es tut dies, indem Anwendungen zuverlässig unbegrenzte Datenströme verarbeiten können (z. B. Übertragung von Stream). "Storm ist für Echtzeitverarbeitung, was Hadoop für Batchverarbeitung ist!" In diesem Live-Training unter Anweisung lernen die Teilnehmer, wie man Apache Storm installiert und konfiguriert und dann eine Apache Storm Anwendung entwickelt und implementiert, um große Daten in Echtzeit zu verarbeiten. Einige der in dieser Ausbildung enthaltenen Themen umfassen:
    Apache Storm im Zusammenhang mit Hadoop Arbeiten mit unbegrenzten Daten kontinuierliche Berechnung Analysen in Echtzeit Distribuierte RPC und ETL-Verarbeitung
Bitte beantragen Sie diesen Kurs jetzt! Publikum
    Software und ETL Entwickler Mainframe Fachkräfte Datenwissenschaftler Big Data Analytiker [ 0 ] Fachleute
Format des Kurses
         Teilverhandlungen, Teildiskussionen, Übungen und schwere Praktiken
21 Stunden
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 Stunden
Apache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
14 Stunden
Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability. In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project. By the end of this training, participants will be able to:
  • Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
  • Achieve persistence without syncing data back to a relational database.
  • Use Ignite to carry out SQL and distributed joins.
  • Improve performance by moving data closer to the CPU, using RAM as a storage.
  • Spread data sets across a cluster to achieve horizontal scalability.
  • Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.
Format of the Course
  • Interactive lecture and discussion.
  • Lots of exercises and practice.
  • Hands-on implementation in a live-lab environment.
Course Customization Options
  • To request a customized training for this course, please contact us to arrange.
7 Stunden
Confluent K SQL ist ein Stream-Processing-Framework, das auf Apache Kafka . Es ermöglicht die Echtzeit-Datenverarbeitung mit SQL Operationen. Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Confluent K SQL .
  • Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
  • Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
  • Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Streaming ist ein skalierbares, open source-Stream-Verarbeitungssystem, das Benutzern ermöglicht, Daten in Echtzeit aus unterstützten Quellen zu verarbeiten. Spark Streaming ermöglicht die Fehlerverträgliche Verarbeitung von Datenströmen. Dieser Instructor-Leid, Live-Training (online oder online) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die Funktionen Spark Streaming in der Verarbeitung und Analyse von Daten in Echtzeit verwenden möchten. Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein zu verwenden Spark Streaming, um Live-Datenströme für die Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten. Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.

Last Updated:

Stream processing Schulung, Stream processing boot camp, Stream processing Abendkurse, Stream processing Wochenendkurse, Stream processing Kurs, Stream processing Training, Stream processing Seminar, Stream processing Seminare, Stream processing Privatkurs, Stream processing Coaching, Stream processing Lehrer

Sonderangebote

No course discounts for now.

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Switzerland!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions