Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 Stunden
Überblick
Apache Accumulo ist ein sortierter, verteilter Schlüssel- / Apache Accumulo , der eine robuste, skalierbare Speicherung und Abfrage von Daten ermöglicht. Es basiert auf dem Design von Go Ogle BigTable und wird von Apache betrieben Hadoop , Apache Zookeeper und Apache Thrift .

Dieser von Lehrern geführte Live-Kurs behandelt die Arbeitsweise von Accumulo und führt die Teilnehmer durch die Entwicklung einer Beispielanwendung für Apache Accumulo .

Format des Kurses

- Teilvorlesung, Teildiskussion, praktische Entwicklung und Implementierung, gelegentliche Tests zur Beurteilung des Verständnisses
21 Stunden
Überblick
Wissenserkennung in Datenbanken (KDD) ist der Prozess der Erkennung nützlichen Wissens aus einer Sammlung von Daten. Zu den realen Anwendungen für diese Data-Mining-Technik gehören Marketing, Betrugserkennung, Telekommunikation und Fertigung.

In diesem von Lehrern geführten Live-Kurs stellen wir die mit KDD verbundenen Prozesse vor und führen eine Reihe von Übungen durch, um die Implementierung dieser Prozesse zu üben.

Publikum

- Datenanalysten oder Personen, die lernen möchten, wie Daten interpretiert werden, um Probleme zu lösen

Format des Kurses

- Nach einer theoretischen Diskussion über KDD wird der Ausbilder reale Fälle vorstellen, in denen die Anwendung von KDD zur Lösung eines Problems erforderlich ist. Die Teilnehmer werden Probendatensätze vorbereiten, auswählen und bereinigen und ihre Vorkenntnisse in Bezug auf die Daten nutzen, um basierend auf den Ergebnissen ihrer Beobachtungen Lösungen vorzuschlagen.
28 Stunden
Überblick
MonetDB ist eine Open-Source-Datenbank, die Pionierarbeit bei der Säulenspeichertechnologie geleistet hat.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie man MonetDB einsetzt und wie man den größten Nutzen daraus zieht.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie MonetDB und seine Funktionen
- Installieren und loslegen mit MonetDB
- Lernen Sie verschiedene Funktionen und Aufgaben in MonetDB kennen und führen Sie sie aus
- Beschleunigen Sie die Projektabwicklung, indem Sie die MonetDB-Funktionen maximieren

Publikum

- Entwickler
- Technische Experten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Überblick
Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an technische Personen, die lernen möchten, wie eine Strategie für maschinelles Lernen implementiert und gleichzeitig die Nutzung von Big Data maximiert wird.

Am Ende dieser Schulung werden die Teilnehmer:

- Verstehen Sie die Entwicklung und Trends des maschinellen Lernens.
- Wissen, wie maschinelles Lernen branchenübergreifend eingesetzt wird.
- Machen Sie sich mit den Tools, Fähigkeiten und Diensten vertraut, die für die Implementierung von maschinellem Lernen in einer Organisation verfügbar sind.
- Verstehen Sie, wie maschinelles Lernen zur Verbesserung von Data Mining und Analyse eingesetzt werden kann.
- Erfahren Sie, was ein Data Middle Backend ist und wie es von Unternehmen verwendet wird.
- Verstehen Sie, welche Rolle Big Data und intelligente Anwendungen branchenübergreifend spielen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 Stunden
Überblick
Mem SQL ist ein speicherinternes, verteiltes SQL Datenbankverwaltungssystem für Clouds und lokale Anwendungen. Es handelt sich um ein Echtzeit-Data-Warehouse, das sofort Einblicke in Live- und Verlaufsdaten bietet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
- Installieren, entwerfen, warten und betreiben Sie Mem SQL
- Optimieren Sie Schemata in Mem SQL
- Verbessern Sie Abfragen in Mem SQL
- Benchmark-Leistung in Mem SQL
- Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL

Publikum

- Entwickler
- Administratoren
- Betriebsingenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 Stunden
Überblick
MATLAB ist eine von MathWorks entwickelte numerische Programmierumgebung und Programmiersprache .
7 Stunden
Überblick
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln.

Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.

Publikum

- Entwickler
- Administratoren

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Magellan ist eine Open-Source-Engine für die verteilte Ausführung von Geodatenanalysen für Big Data. Auf Apache Spark implementiert, erweitert es Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics.

Dieses von Lehrern geleitete Live-Training führt in die Konzepte und Ansätze zur Implementierung von Geospacial Analytics ein und führt die Teilnehmer durch die Erstellung einer Predictive Analysis-Anwendung mit Magellan on Spark.

Am Ende dieser Schulung können die Teilnehmer:

- Effizientes Abfragen, Parsen und Verknüpfen von Geodatensätzen im Maßstab
- Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen
- Verwenden Sie den räumlichen Kontext, um die Funktionen von Mobilgeräten, Sensoren, Protokollen und Wearables zu erweitern

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Apache Kylin ist eine extreme, verteilte Analyse-Engine für Big Data.

In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Apache Kylin ein Echtzeit-Data Warehouse einrichten.

Am Ende dieser Schulung können die Teilnehmer:

- Verbrauchen Sie Echtzeit-Streaming-Daten mit Kylin
- Nutzen Sie die leistungsstarken Funktionen von Apache Kylin , die reichhaltige SQL Oberfläche, das Spark Cubing und die Latenz von Abfragen im Sekundentakt

Hinweis

- Wir verwenden die neueste Version von Kylin (zum Zeitpunkt des Schreibens Apache Kylin v2.0).

Publikum

- Big Data-Ingenieure
- Big Data Analysten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Überblick
Confluent K SQL ist ein Stream-Processing-Framework, das auf Apache Kafka . Es ermöglicht die Echtzeit-Datenverarbeitung mit SQL Operationen.

Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Confluent K SQL .
- Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
- Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
- Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
35 Stunden
Überblick
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 Stunden
Überblick
KNIME Analytics Platform ist eine führende Open-Source-Option für datengetriebene Innovationen. Sie hilft Ihnen dabei, das in Ihren Daten verborgene Potenzial zu entdecken, neue Erkenntnisse zu gewinnen oder neue Zukünfte vorherzusagen. Mit mehr als 1000 Modulen, Hunderten von einsatzbereiten Beispielen, einer umfassenden Palette integrierter Tools und der größten Auswahl an fortschrittlichen Algorithmen ist die KNIME Analytics Platform die perfekte Toolbox für jeden Datenwissenschaftler und Geschäftsanalysten.

Dieser Kurs für die KNIME Analytics-Plattform ist eine ideale Gelegenheit für Anfänger, fortgeschrittene Benutzer und KNIME Experten, um sich mit KNIME zu machen, seine effektivere Verwendung zu erlernen und klare, umfassende Berichte auf der Grundlage von KNIME Workflows zu erstellen
7 Stunden
Überblick
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
- Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
- Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
- Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
- Erstellen, packen und implementieren Sie die Anwendung

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
21 Stunden
Überblick
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Überblick
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern.

In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.

Publikum

- Entwickler
- Software-Architekten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Audienz

- Entwickler

Format der

- Vorträge, praktische Übungen, kleine Tests auf dem Weg, um Verständnis zu messen
21 Stunden
Überblick
Cloudera Impala ist eine Open-Source- SQL Abfrage-Engine (MPP = Massively Parallel Processing) für Apache Hadoop Cluster.

Impala können Benutzer SQL Abfragen mit geringer Latenz für Daten ausgeben, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne Daten verschieben oder transformieren zu müssen.

Publikum

Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die Hadoop Business Intelligence oder SQL Tools in Hadoop gespeicherte Daten analysieren.

Nach diesem Kurs werden die Teilnehmer in der Lage sein

- Extrahieren Sie mit Impala aussagekräftige Informationen aus Hadoop Clustern.
- Schreiben Sie spezielle Programme, um Business Intelligence in Impala SQL Dialect zu vereinfachen.
- Fehlerbehebung bei Impala .
7 Stunden
Überblick
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
21 Stunden
Überblick
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet.

In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Überblick
In diesem Kurs wird HBase vorgestellt - ein No SQL Speicher über Hadoop . Der Kurs richtet sich an Entwickler, die HBase zum Entwickeln von Anwendungen verwenden, sowie an Administratoren, die HBase-Cluster verwalten.

Wir werden einen Entwickler durch die HBase-Architektur sowie die Datenmodellierung und Anwendungsentwicklung auf HBase führen. Außerdem werden die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung erläutert. Der Kurs ist sehr praktisch mit vielen Laborübungen.

Dauer : 3 Tage

Zielgruppe : Entwickler und Administratoren
28 Stunden
Überblick
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 Stunden
Überblick
Publikum:

Dieser Kurs soll Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass es nicht schwer zu verstehen ist.
14 Stunden
Überblick
Da immer mehr Software- und IT-Projekte von lokaler Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Speicherung von Big Data migrieren, müssen die Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die Konzepte und Praktiken zu erfassen, die für Big Data Projekte und -Chancen relevant sind.

Dieser Kurs führt Projektmanager in das beliebteste Big Data Verarbeitungsframework ein: Hadoop .

In dieser von Lehrern geleiteten Schulung lernen die Teilnehmer die Kernkomponenten des Hadoop Ökosystems kennen und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Durch das Erlernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie mit den Datenwissenschaftlern und Analysten zu kommunizieren, an denen viele IT-Projekte beteiligt sind.

Publikum

- Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten
- Projektmanager müssen mit funktionsübergreifenden Teams kommunizieren, zu denen Big Data-Ingenieure, Data Scientists und Business Analysten gehören

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 Stunden
Überblick
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
21 Stunden
Überblick
Apache Spark is a distributed processing engine for analyzing very large data sets. It can process data in batches and real-time, as well as carry out machine learning, ad-hoc queries, and graph processing. .NET for Apache Spark is a free, open-source, and cross-platform big data analytics framework that supports applications written in C# or F#.

This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
7 Stunden
Überblick
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Teradata ist ein beliebte Relational Database Management - System für den Aufbau von Groß Data Warehousing - Anwendungen. Teradata erreicht dies durch Parallelität.

Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Anwendungsentwickler und -ingenieure, die die anspruchsvollere Verwendung der Teradata Datenbank beherrschen möchten.

Am Ende dieser Schulung können die Teilnehmer:

- Teradata Space verwalten.
- Schützen und verteilen Sie Daten in Teradata .
- Lesen Sie den Plan.
- Verbessern Sie die SQL Kenntnisse.
- Verwenden Sie die Hauptdienstprogramme von Teradata .

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Überblick
Spark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten. Spark SQL bietet Informationen zur Struktur der Daten sowie zur ausgeführten Berechnung. Mit diesen Informationen können Optimierungen durchgeführt werden. Zwei häufige Verwendungen von Spark SQL sind:
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen.

In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 Stunden
Überblick
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Switzerland!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions