Von Lehrern geleitete Live-Stream-Processing-Schulungen online oder vor Ort veranschaulichen durch interaktive Diskussionen und praktische Übungen die Grundlagen und fortgeschrittenen Themen der Stream-Verarbeitung. Die Stream-Processing-Schulung ist als „Online-Live-Schulung“ oder „Vor-Ort-Live-Schulung“ verfügbar. Das Online-Live-Training (auch „Remote-Live-Training“) wird über einen interaktiven Remote-Desktop durchgeführt. Live-Schulungen vor Ort können vor Ort beim Kunden in Schweiz oder in den NobleProg-Schulungszentren in Schweiz durchgeführt werden. NobleProg – Ihr lokaler Schulungsanbieter
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung. Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung. Am Ende dieser Schulung können die Teilnehmer:
Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.
Publikum
Entwickler
Format des Kurses
Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln. Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen. Publikum
Entwickler
Administratoren
Format des Kurses
Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Hinweis
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben. Am Ende dieser Schulung können die Teilnehmer:
Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
Erstellen, packen und implementieren Sie die Anwendung
Publikum
Entwickler
Format des Kurses
Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern. In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden. Am Ende dieser Schulung können die Teilnehmer:
Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Publikum
Entwickler
Software-Architekten
Format des Kurses
Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten. Am Ende dieser Schulung können die Teilnehmer:
Installieren und konfigurieren Sie Confluent Platform.
Verwenden Sie die Verwaltungstools und -dienste von Confluent, um Kafka einfacher auszuführen.
Speichern und verarbeiten Sie eingehende Stream-Daten.
Optimieren und verwalten Sie Kafka-Cluster.
Sichere Datenströme.
Format des Kurses
Interaktiver Vortrag und Diskussion.
Viele Übungen und Übungen.
Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
Dieser Kurs basiert auf der Open Source-Version von Confluent: Confluent Open Source.
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Apache Kafka ist eine Open-Source-Stream-Plattform, die eine schnelle, zuverlässige und geringfügige Plattform zur Verarbeitung von Datenanalytik in Echtzeit bietet. Apache Kafka kann mit verfügbaren Programmiersprachen wie Python integriert werden.
Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die Funktionen Apache Kafka in Datenstreaming mit [0 verwenden möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein zu verwenden Apache Kafka zu überwachen und zu verwalten Bedingungen in kontinuierlichen Datenströme mit Python Programmierung.
Format des Kurses
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
This instructor-led, live training in Schweiz introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird. Am Ende dieser Schulung können die Teilnehmer:
Installieren und konfigurieren Sie Apachi NiFi.
Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
Datenflüsse automatisieren.
Aktivieren Sie die Streaming-Analyse.
Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
Verwandeln Sie Big Data in Business Insights.
Format des Kurses
Interaktiver Vortrag und Diskussion.
Viele Übungen und Übungen.
Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi . Am Ende dieser Schulung können die Teilnehmer:
Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.
Format des Kurses
Interaktiver Vortrag und Diskussion.
Viele Übungen und Übungen.
Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Apache Storm ist ein verteilter, real-time Computing-Motor, der zur Bereitstellung von Business Intelligence in real-time verwendet wird. Es tut dies, indem Anwendungen zuverlässig unbegrenzte Datenströme verarbeiten können (z. B. Übertragung von Stream).
"Storm ist für Echtzeitverarbeitung, was Hadoop für Batchverarbeitung ist!"
In diesem Live-Training unter Anweisung lernen die Teilnehmer, wie man Apache Storm installiert und konfiguriert und dann eine Apache Storm Anwendung entwickelt und implementiert, um große Daten in Echtzeit zu verarbeiten.
Einige der in dieser Ausbildung enthaltenen Themen umfassen:
Apache Storm im Zusammenhang mit Hadoop
Arbeiten mit unbegrenzten Daten
kontinuierliche Berechnung
Analysen in Echtzeit
Distribuierte RPC und ETL-Verarbeitung
Bitte beantragen Sie diesen Kurs jetzt!
Publikum
Software und ETL Entwickler
Mainframe Fachkräfte
Datenwissenschaftler
Big Data Analytiker
[ 0 ] Fachleute
Format des Kurses
Teilverhandlungen, Teildiskussionen, Übungen und schwere Praktiken
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
Apache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.
In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.
By the end of this training, participants will be able to:
Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
Achieve persistence without syncing data back to a relational database.
Use Ignite to carry out SQL and distributed joins.
Improve performance by moving data closer to the CPU, using RAM as a storage.
Spread data sets across a cluster to achieve horizontal scalability.
Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Confluent K SQL ist ein Stream-Processing-Framework, das auf Apache Kafka . Es ermöglicht die Echtzeit-Datenverarbeitung mit SQL Operationen. Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen. Am Ende dieser Schulung können die Teilnehmer:
Installieren und konfigurieren Sie Confluent K SQL .
Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.
Format des Kurses
Interaktiver Vortrag und Diskussion.
Viele Übungen und Übungen.
Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Streaming ist ein skalierbares, open source-Stream-Verarbeitungssystem, das Benutzern ermöglicht, Daten in Echtzeit aus unterstützten Quellen zu verarbeiten. Spark Streaming ermöglicht die Fehlerverträgliche Verarbeitung von Datenströmen.
Dieser Instructor-Leid, Live-Training (online oder online) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die Funktionen Spark Streaming in der Verarbeitung und Analyse von Daten in Echtzeit verwenden möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein zu verwenden Spark Streaming, um Live-Datenströme für die Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.
Format des Kurses
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben. Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.
EINIGE UNSERER KUNDEN
is growing fast!
We are looking for a good mixture of IT and soft skills in Switzerland!
As a NobleProg Trainer you will be responsible for:
delivering training and consultancy Worldwide
preparing training materials
creating new courses outlines
delivering consultancy
quality management
At the moment we are focusing on the following areas:
Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
SOA, BPM, BPMN
Hibernate/Spring, Scala, Spark, jBPM, Drools
R, Python
Mobile Development (iOS, Android)
LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
You need to have patience and ability to explain to non-technical people
To apply, please create your trainer-profile by going to the link below: