Hadoop Schulungen

Hadoop Schulungen

Lokale, instruktorierte Live-Apache-Hadoop-Schulungen demonstrieren durch Diskussion und praktische Übungen die Kernkomponenten des Hadoop-Ökosystems und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können Hadoop-Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt NobleProg Ihr lokaler Trainingsanbieter.

Erfahrungsberichte

★★★★★
★★★★★

Hadoop Unterkategorien

Hadoop Kurspläne

CodeNameDauerÜbersicht
hadoopadmHadoop Administration21 StundenDer Kurs richtet sich an IT-Spezialisten, die nach einer Lösung suchen, um große Datenmengen in einer verteilten Systemumgebung zu speichern und zu verarbeiten Kursziel: Kenntnisse über die Hadoop-Clusterverwaltung erhalten .
hadoopforprojectmgrsHadoop for Project Managers14 StundenDa immer mehr Software- und IT-Projekte von der lokalen Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Big Data Storage migrieren, müssen Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die für Big Data-Projekte und -Möglichkeiten relevanten Konzepte und Praktiken zu erfassen In diesem Kurs werden Projektmanager in das gängigste Big Data-Verarbeitungsframework eingeführt: Hadoop In diesem Training lernen die Teilnehmer die Kernkomponenten des Hadoop-Ökosystems kennen und erfahren, wie diese Technologien zur Lösung großer Probleme eingesetzt werden können Beim Lernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie den Datenwissenschaftlern und Analysten, die in vielen IT-Projekten involviert sind, zu kommunizieren Publikum Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten Projektmanager, die mit crossfunktionalen Teams kommunizieren müssen, darunter Big Data-Ingenieure, Data Scientists und Business Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 StundenSqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes Es kann verwendet werden, um Daten von einem relationalen Datenbankverwaltungssystem (RDBMS) wie MySQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) zu importieren Danach können die Daten in Hadoop MapReduce umgewandelt und dann wieder in ein RDBMS exportiert werden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Sqoop Daten aus einer traditionellen relationalen Datenbank in Hadoop-Speicher wie HDFS oder Hive und umgekehrt importieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Sqoop Importieren Sie Daten von MySQL nach HDFS und Hive Importieren Sie Daten aus HDFS und Hive in MySQL Publikum Systemadministratoren Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
hadooppythonHadoop with Python28 StundenHadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifidevApache NiFi for Developers7 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training erlernen die Teilnehmer die Grundlagen der flowbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Datenflusskonzepte von NiFi Entwickeln Sie Erweiterungen mit NiFi und Drittanbieter-APIs Entwickeln Sie Ihren eigenen Apache Nifi-Prozessor Erfassen und Verarbeiten von Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen Publikum Entwickler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifiApache NiFi for Administrators21 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
datameerDatameer for Data Analysts14 StundenDatameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
tigonTigon: Real-time Streaming for the Real World14 StundenTigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
alluxioAlluxio: Unifying Disparate Storage Systems7 StundenAlexio ist ein virtuelles virtuelles verteiltes Speichersystem, das verteilte Speichersysteme vereint und Anwendungen mit Daten mit Speichergeschwindigkeit interagieren lässt Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Alexio verschiedene Berechnungs-Frameworks mit Speichersystemen überbrücken und Multipetabyte-Daten effizient verwalten können, während sie mit Alluxio eine Anwendung erstellen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big-Data-Systeme und -Anwendungen unter Beibehaltung eines Namespace Effiziente Extraktion von Werten aus Big Data in jedem Speicherformat Verbessern Sie die Arbeitslastleistung Bereitstellen und Verwalten von Alluxio Standalone oder Clustered Publikum Datenwissenschaftler Entwickler Systemadministrator Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
samzaSamza for Stream Processing14 StundenApache Samza ist ein OpenSource-Echtzeit-asynchrones Berechnungs-Framework für die Stream-Verarbeitung Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolierung, Sicherheit und Ressourcenverwaltung Dieses instruierte Live-Training stellt die Prinzipien vor, die hinter Messaging-Systemen und verteilter Stream-Verarbeitung stehen, während die Teilnehmer durch die Erstellung eines Samzabased-Beispielprojekts und der Jobausführung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Samza, um den Code zu vereinfachen, der zum Erstellen und Verwenden von Nachrichten benötigt wird Entkoppeln Sie die Handhabung von Nachrichten aus einer Anwendung Verwenden Sie Samza, um die asynchrone Echtzeitberechnung zu implementieren Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene als Messaging-Systeme bereitzustellen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
hdpHortonworks Data Platform (HDP) for Administrators21 StundenDie Hortonworks Data Platform ist eine Open-Source Apache Hadoop-Support-Plattform, die eine stabile Grundlage für die Entwicklung von Big Data-Lösungen für das Apache Hadoop-Ökosystem bietet Dieses instruierte Live-Training stellt Hortonworks vor und führt die Teilnehmer durch den Einsatz der Spark + Hadoop-Lösung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Hortonworks, um Hadoop in großem Umfang zuverlässig auszuführen Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit Sparks agilen analytischen Workflows Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturiert, unstrukturiert, Inmotion und atrest Publikum Hadoop-Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
ambariApache Ambari: Efficiently Manage Hadoop Clusters21 StundenApache Ambari ist eine Open-Source-Managementplattform für die Bereitstellung, Verwaltung, Überwachung und Sicherung von Apache Hadoop-Clustern In diesem instruierten Live-Training lernen die Teilnehmer die von Ambari zur Verfügung gestellten Management-Tools und -Praktiken kennen, um Hadoop-Cluster erfolgreich zu verwalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Richten Sie einen Live-Big-Data-Cluster mit Ambari ein Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie Verbessern Sie die Leistung eines Hadoop-Clusters durch Optimieren und Optimieren Publikum DevOps Systemadministratoren DBAs Hadoop-Testprofis Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
ApHadm1Apache Hadoop: Manipulation and Transformation of Data Performance21 StundenDieser Kurs richtet sich an Entwickler, Architekten, Datenwissenschaftler oder jedes Profil, das entweder intensiv oder regelmäßig Zugriff auf Daten benötigt Der Schwerpunkt des Kurses liegt in der Manipulation und Transformation von Daten Unter den Tools im Hadoop-Ökosystem umfasst dieser Kurs die Verwendung von Pig und Hive, die beide stark für die Datentransformation und -manipulation verwendet werden Dieses Training befasst sich auch mit Leistungsmetriken und Leistungsoptimierung Der Kurs ist vollständig praxisorientiert und wird durch Präsentationen der theoretischen Aspekte unterbrochen .
apachehAdministrator Training for Apache Hadoop35 StundenPublikum: Der Kurs richtet sich an IT-Spezialisten, die eine Lösung zum Speichern und Verarbeiten großer Datenmengen in einer verteilten Systemumgebung suchen Tor: Umfassendes Wissen über die Verwaltung von Hadoop-Clustern .
BigData_A Practical Introduction to Data Analysis and Big Data35 StundenParticipants who complete this training will gain a practical, real-world understanding of Big Data and its related technologies, methodologies and tools.

Participants will have the opportunity to put this knowledge into practice through hands-on exercises. Group interaction and instructor feedback make up an important component of the class.

The course starts with an introduction to elemental concepts of Big Data, then progresses into the programming languages and methodologies used to perform Data Analysis. Finally, we discuss the tools and infrastructure that enable Big Data storage, Distributed Processing, and Scalability.

Audience

- Developers / programmers
- IT consultants

Format of the course

- Part lecture, part discussion, hands-on practice and implementation, occasional quizing to measure progress.
IntroToAvroApache Avro: Data Serialization for Distributed Applications14 StundenDieser Kurs ist für bestimmt Entwickler Format des Kurses Vorträge, praktische Übungen, kleine Tests auf dem Weg zum Verständnis des Verständnisses .
HadoopDevAdHadoop for Developers and Administrators21 StundenHadoop ist das beliebteste Big Data-Verarbeitungsframework .
ImpImpala for Business Intelligence21 StundenCloudera Impala ist eine Open-Source-SQL-Abfrage-Engine für massiv parallele Verarbeitung (MPP) für Apache Hadoop-Cluster Mit Impala können Benutzer SQL-Abfragen mit niedriger Latenz für Daten ausführen, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne dass Daten verschoben oder transformiert werden müssen Publikum Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die eine Analyse von in Hadoop gespeicherten Daten über Business Intelligence- oder SQL-Tools durchführen Nach diesem Kurs werden die Delegierten in der Lage sein Extrahieren Sie aussagekräftige Informationen aus Hadoop-Clustern mit Impala Schreiben Sie spezifische Programme, um Business Intelligence in Impala SQL Dialekt zu erleichtern Problembehandlung bei Impala .
hivehiveqlData Analysis with Hive/HiveQL7 StundenDieser Kurs behandelt die Verwendung der Hive SQL-Sprache (Hive HQL, SQL on Hive, HiveQL) für Personen, die Daten aus Hive extrahieren .
hadoopbaHadoop for Business Analysts21 StundenApache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data Hadoop bietet umfassende und umfassende Analysemöglichkeiten und bahnt sich einen Weg in die tradionelle BI-Analytics-Welt In diesem Kurs wird ein Analyst zu den Kernkomponenten von Hadoop eco system und seinen Analysen vorgestellt Publikum Business Analysten Dauer 3 Tage Format Vorlesungen und praktische Übungen .
hadoopadm1Hadoop For Administrators21 StundenApache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Server-Clustern In diesen drei (optional vier) Kursen lernen die Teilnehmer die geschäftlichen Vorteile und Anwendungsfälle für Hadoop und sein Ökosystem, die Planung von Clusterbereitstellung und -wachstum sowie die Installation, Wartung, Überwachung, Fehlerbehebung und Optimierung von Hadoop kennen Außerdem üben sie das Laden von Cluster-Daten, lernen verschiedene Hadoop-Distributionen kennen und üben die Installation und Verwaltung von Hadoop-Ökosystem-Tools Der Kurs endet mit der Diskussion über die Sicherung von Cluster mit Kerberos " Die Materialien waren sehr gut vorbereitet und gründlich abgedeckt Das Labor war sehr hilfsbereit und gut organisiert " - Andrew Nguyen, Hauptintegration DW Engineer, Microsoft Online Advertising Publikum Hadoop-Administratoren Format Vorlesungen und Handson Labs, ungefähre Balance 60% Vorträge, 40% Labs .
hbasedevHBase for Developers21 StundenDieser Kurs stellt HBase vor - einen NoSQL-Speicher über Hadoop Der Kurs richtet sich an Entwickler, die HBase zur Entwicklung von Anwendungen nutzen, und an Administratoren, die HBase-Cluster verwalten Wir werden einen Entwickler durch HBase-Architektur und Datenmodellierung und Anwendungsentwicklung auf HBase gehen Es wird auch die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung besprochen Der Kurs ist sehr praktisch mit vielen Laborübungen Dauer : 3 Tage Zielgruppe : Entwickler und Administratoren .
hadoopdevaAdvanced Hadoop for Developers21 StundenApache Hadoop ist eines der beliebtesten Frameworks für die Verarbeitung von Big Data auf Server-Clustern Dieser Kurs befasst sich mit Datenmanagement in HDFS, fortgeschrittenem Schwein, Hive und HBase Diese fortgeschrittenen Programmiertechniken sind für erfahrene Hadoop-Entwickler von Vorteil Zielgruppe : Entwickler Dauer: drei Tage Format: Vorträge (50%) und Handson Labs (50%) .
hadoopdevHadoop for Developers (4 days)28 StundenApache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Server-Clustern Dieser Kurs wird einen Entwickler zu verschiedenen Komponenten (HDFS, MapReduce, Pig, Hive und HBase) Hadoop Ökosystem vorstellen .
hadoopmaprHadoop Administration on MapR28 StundenPublikum:

Dieser Kurs soll die Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass sie nicht schwer zu verstehen ist.
bigdataanahealthBig Data Analytics in Health21 StundenBig Data Analytics umfasst den Prozess der Untersuchung großer Mengen verschiedener Datensätze, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken Die Gesundheitsindustrie verfügt über enorme Mengen komplexer heterogener medizinischer und klinischer Daten Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein enormes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung Die Ungeheuerlichkeit dieser Datensätze stellt jedoch große Herausforderungen bei Analysen und praktischen Anwendungen in einem klinischen Umfeld dar In diesem instruierten Live-Training (remote) lernen die Teilnehmer, wie sie Big-Data-Analysen in der Gesundheit durchführen, während sie eine Reihe von Hands-on-Liveslab-Übungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Big-Data-Analysetools wie Hadoop MapReduce und Spark Verstehen Sie die Eigenschaften von medizinischen Daten Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen Publikum Entwickler Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .

Zukünftige Hadoop Kurse

CourseSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
Hadoop for Business Analysts - BaselMo, 2019-01-07 09:304500EUR / 5150EUR
Hadoop for Business Analysts - ZürichDi, 2019-02-05 09:304500EUR / 5150EUR
Hadoop for Business Analysts - BernMi, 2019-02-06 09:304500EUR / 5150EUR
Hadoop for Business Analysts - BaselDi, 2019-03-05 09:304500EUR / 5150EUR
Hadoop for Business Analysts - ZürichDi, 2019-04-09 09:304500EUR / 5150EUR
Hadoop Schulung, Hadoop boot camp, Hadoop Abendkurse, Hadoop Wochenendkurse, Hadoop Kurs, Hadoop Training, Hadoop Seminar, Hadoop Seminare, Hadoop Privatkurs, Hadoop Coaching, Hadoop Lehrer

Sonderangebote

CourseOrtSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
Advanced RBernFr, 2018-12-28 09:301575EUR / 1925EUR
Artificial Intelligence in AutomotiveBernMi, 2019-04-03 09:303150EUR / 3650EUR
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLPBernMi, 2019-04-03 09:304725EUR / 5375EUR
Applying SysML with MAGICDRAWBernMo, 2019-04-22 09:304725EUR / 5375EUR
Business Process Modelling in BPMN 2.0BernDi, 2019-04-30 09:304725EUR / 5375EUR

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!