Hadoop Schulungen

Hadoop Schulungen

Live-Schulungen von Apache Hadoop vor Ort unter Anleitung von Dozenten demonstrieren durch interaktives praktisches Üben die Kernkomponenten des Hadoop-Ökosystems und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Hadoop-Schulungen sind als "Onsite-Live-Training" oder "Remote-Live-Training" verfügbar. Live-Schulungen vor Ort können vor Ort beim Kunden vor Ort durchgeführt werden Schweiz oder in NobleProg-Schulungszentren in Schweiz . Das Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Schulungsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Apache Hadoop Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 Stunden
Python ist eine skalierbare, flexible und weit verbreitete Programmiersprache für die Datenwissenschaft und das Maschinenlernen. Spark ist ein Datenverarbeitungsmotor, der in der Umfrage, Analyse und Transformation von großen Daten verwendet wird, während Hadoop ein Software-Bibliothek-Framework für die Storage und Verarbeitung von großen Daten ist.

Diese Live-Training (online oder online) richtet sich an Entwickler, die Spark, Hadoop und Python verwenden und integrieren möchten, um große und komplexe Datensätze zu verarbeiten, zu analysieren und zu transformieren.

Am Ende dieser Ausbildung können die Teilnehmer:

Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen. Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop. Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren. Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume). Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google. Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.

Format des Kurses

Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.

Kursanpassungsoptionen

Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
7 Stunden
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
14 Stunden
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 Stunden
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment

Course goal:

Getting knowledge regarding Hadoop cluster administration
35 Stunden
Publikum:

Der Kurs richtet sich an IT-Spezialisten, die eine Lösung zum Speichern und Verarbeiten großer Datenmengen in einer verteilten Systemumgebung suchen

Go al:

Vertiefte Kenntnisse in der Hadoop Clusterverwaltung.
28 Stunden
Audience:

This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 Stunden
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
21 Stunden
Apache Hadoop ist eines der beliebtesten Frameworks für die Verarbeitung von Big Data auf Serverclustern. Dieser Kurs befasst sich mit Datenmanagement in HDFS, Advanced Pig, Hive und HBase. Diese fortschrittlichen Programmiertechniken sind für erfahrene Hadoop Entwickler von Vorteil.

Zielgruppe : Entwickler

Dauer: drei Tage

Format: Vorträge (50%) und praktische Übungen (50%).
21 Stunden
This course introduces HBase – a NoSQL store on top of Hadoop. The course is intended for developers who will be using HBase to develop applications, and administrators who will manage HBase clusters.

We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course is very hands-on with lots of lab exercises.

Duration : 3 days

Audience : Developers & Administrators
21 Stunden
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Serverclustern. In diesem dreitägigen (optionalen) Kurs lernen die Teilnehmer die Geschäftsvorteile und Anwendungsfälle für Hadoop und sein Ökosystem kennen, wie Clusterbereitstellung und -wachstum geplant werden, wie Hadoop installiert, gewartet, überwacht, Fehler behoben und optimiert wird. Sie üben auch das Laden von Cluster-Massendaten, machen sich mit verschiedenen Hadoop Distributionen vertraut und üben das Installieren und Verwalten von Hadoop Ökosystemtools. Der Kurs endet mit einer Diskussion über das Sichern von Clustern mit Kerberos.

„… Die Materialien waren sehr gut vorbereitet und gründlich abgedeckt. Das Labor war sehr hilfreich und gut organisiert. “
- Andrew Nguyen, Hauptintegrations-DW-Ingenieur, Microsoft Online Advertising

Publikum

Hadoop Administratoren

Format

Vorlesungen und praktische Übungen, ungefähr 60% Vorlesungen, 40% Übungen.
21 Stunden
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics

Audience

Business Analysts

Duration

three days

Format

Lectures and hands on labs.
21 Stunden
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
14 Stunden
Audience

- Developers

Format of the Course

- Lectures, hands-on practice, small tests along the way to gauge understanding
21 Stunden
Dieser Kurs richtet sich an Entwickler, Architekten, Datenwissenschaftler oder jedes Profil, das intensiven oder regelmäßigen Zugriff auf Daten erfordert.

Der Schwerpunkt des Kurses liegt auf der Datenmanipulation und -transformation.

Zu den Tools im Hadoop Ökosystem gehört die Verwendung von Pig und Hive beide häufig für die Datenumwandlung und -manipulation verwendet werden.

Dieses Training befasst sich auch mit Leistungsmetriken und Leistungsoptimierung.

Der Kurs ist ganz praktisch und wird durch Präsentationen der theoretischen Aspekte unterstrichen.
14 Stunden
In this instructor-led training in Schweiz, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve.

Audience

- Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
- Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 Stunden
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung.

Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
- Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
- Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
- Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Alluxio ist ein open-source virtuelles verteilte Speicher-System, das unterschiedliche Speicher-Systeme vereint und Anwendungen ermöglicht, mit Daten bei Speichergeschwindigkeit zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet.

In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man Alluxio verschiedene Computing-Frameworks mit Speicher-Systemen zu verwenden und effizient Multi-Petabyte-Skala-Daten zu verwalten, während sie durch die Erstellung einer Anwendung mit Alluxio gehen.

Am Ende dieser Ausbildung können die Teilnehmer:

Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces Effizient Wert aus großen Daten in jedem Speicherformat extrahieren Verbesserung der Workload Performance Entfernen und verwalten Alluxio unabhängig oder klusteriert

Publikum

Datenwissenschaftler Entwickler Systemadministrator

Format des Kurses

Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
14 Stunden
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 Stunden
Hadoop ist ein beliebtes Big Data Verarbeitungsrahmen. Python ist eine hochwertige Programmiersprache berühmt für ihre klaren Syntax und Code-Lehbarkeit.

In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man mit Hadoop, MapReduce, Pig und Spark zu arbeiten, indem sie durch mehrere Beispiele und verwendete Fälle gehen.

Am Ende dieser Ausbildung können die Teilnehmer:

Verständnis der Grundkonzepte hinter Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um in HDFS programmierbar zugreifen zu können Python Verwenden Sie mrjob, um MapReduce Jobs in zu schreiben Python Schreiben Sie Spark-Programme mit Python Erweitern Sie die Funktionalität der Schweine mit Python UDFs Verwaltung von MapReduce Jobs und Pig Skripts mit Luigi

Publikum

Entwickler IT Fachleute

Format des Kurses

Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
14 Stunden
Sqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes. Es kann zum Importieren von Daten aus einem relationalen Datenbankverwaltungssystem (RDBMS) wie My SQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) verwendet werden. Danach können die Daten in Hadoop MapReduce transformiert und anschließend wieder in ein RDBMS exportiert werden.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie mit Sqoop Daten aus einer traditionellen relationalen Datenbank in einen Hadoop Speicher wie HDFS oder Hive importieren und umgekehrt.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Sqoop
- Importieren Sie Daten aus My SQL in HDFS und Hive
- Importieren Sie Daten aus HDFS und Hive in My SQL

Publikum

- Systemadministratoren
- Dateningenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Bei der Big-Data-Analyse werden große Mengen unterschiedlicher Datensätze untersucht, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken.

Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld.

In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen

Publikum

- Entwickler
- Data Scientists

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
35 Stunden
Apache Hadoop ist ein beliebtes Datenverarbeitungsrahmen für die Verarbeitung von großen Datensätzen auf vielen Computern.

Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an Systemadministratoren, die lernen möchten, wie man Hadoop Clusters innerhalb ihrer Organisation einrichten, implementieren und verwalten möchte.

Am Ende dieser Ausbildung können die Teilnehmer:

Installieren und konfigurieren Sie Apache Hadoop. Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common. Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen. Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren. Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw. Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.

Format des Kurses

Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.

Kursanpassungsoptionen

Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
Cloudera Impala ist ein Open-Source Massivparallel-Verarbeitung (MPP) SQL Anfragemotor für Apache Hadoop Clusters.

Impala ermöglicht es Benutzern, Low-Latency-Anfragen zu Daten zu veröffentlichen, die in Hadoop Distributed File System und Apache Hbase gespeichert werden, ohne dass Datenbewegung oder Transformation erforderlich ist.

Publikum

Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die eine Analyse auf Daten durchführen, die in Hadoop über Business Intelligence oder SQL Tools gespeichert werden.

Nach diesem Kurs können die Delegierten

Erstrecken Sie sinnvolle Informationen aus Hadoop Clusters mit Impala. Schreiben Sie spezifische Programme, um zu erleichtern Business Intelligence in Impala SQL Dialect. Die Schwierigkeiten [ 4 ]
21 Stunden
Apache Ambari ist eine Open-Source-Verwaltungsplattform für die Bereitstellung, Verwaltung, Überwachung und Sicherung von Apache Hadoop Clustern.

In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer die von Ambari bereitgestellten Management-Tools und -Praktiken kennen, um Hadoop Cluster erfolgreich zu verwalten.

Am Ende dieser Schulung können die Teilnehmer:

- Richten Sie mit Ambari einen Live- Big Data Cluster ein
- Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an
- Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie
- Verbessern Sie die Leistung eines Hadoop Clusters durch Optimieren und Optimieren

Publikum

- DevOps
- Systemadministratoren
- DBAs
- Hadoop Testprofis

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 Stunden
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet.

In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.

Last Updated:

Zukünftige Apache Hadoop Kurse

Hadoop Schulung, Apache Hadoop boot camp, Hadoop Abendkurse, Apache Hadoop Wochenendkurse, Hadoop Kurs, Apache Hadoop Training, Hadoop Seminar, Hadoop Seminare, Apache Hadoop Privatkurs, Hadoop Coaching, Hadoop Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Switzerland!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions