Building Stream Processing Applications with Kafka Streams Schulung

Kurs Code

kafkastreams

Duration

7 hours (üblicherweise 1 Tag inklusive Pausen)

Voraussetzungen

  • An understanding of Apache Kafka
  • Java programming experience

Overview

Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Microservices, deren Daten an ein Kafka-Messaging-System übergeben werden Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm verlassen, um Daten zwischen Nachrichtenproduzenten und Konsumenten zu verarbeiten Durch den Aufruf der Kafka Streams API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Kafka Streams in eine Reihe von Java-Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von dort weiterleiten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks zur Stream-Verarbeitung Verarbeiten Sie Daten direkt in einem Kafka-Cluster Schreiben Sie eine Java- oder Scala-Anwendung oder einen Microservice, der in Kafka und Kafka Streams integriert ist Schreiben Sie prägnanten Code, der eingegebene Kafka-Themen in Kafka-Ausgabethemen umwandelt Erstellen, verpacken und implementieren Sie die Anwendung Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .

Machine Translated

Schulungsübersicht

Introduction

  • Kafka vs Spark, Flink, and Storm

Overview of Kafka Streams Features

  • Stateful and stateless processing, event-time processing, DSL, event-time based windowing operations, etc.

Case Study: Kafka Streams API for Predictive Budgeting

Setting up the Development Environment

Creating a Streams Application

Starting the Kafka Cluster

Preparing the Topics and Input Data

Options for Processing Stream Data

  • High-level Kafka Streams DSL
  • Lower-level Processor

Transforming the Input Data

Inspecting the Output Data

Stopping the Kafka Cluster

Options for Deploying the Application

  • Classic ops tools (Puppet, Chef and Salt)
  • Docker
  • WAR file

Troubleshooting

Summary and Conclusion

Erfahrungsberichte

★★★★★
★★★★★

Verwandte Kategorien

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Switzerland!

As a Business Development Manager you will:

  • expand business in Switzerland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!