Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Schweiz oder in NobleProg Corporate Trainingszentren in Schweiz . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

CodeNameDauerÜbersicht
smtwebintSemantic Web Overview7 StundenDas Semantic Web ist eine kollaborative Bewegung, die vom World Wide Web Consortium (W3C) geleitet wird und gemeinsame Formate für Daten im World Wide Web fördert. Das Semantic Web bietet ein allgemeines Framework, das die gemeinsame Nutzung und Wiederverwendung von Daten über die Grenzen von Anwendungen, Unternehmen und Communities hinweg ermöglicht.
vespaVespa: Serving Large-Scale Data in Real-Time14 StundenVespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
matlabpredanalyticsMatlab for Predictive Analytics21 StundenPredictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifidevApache NiFi for Developers7 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training erlernen die Teilnehmer die Grundlagen der flowbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Datenflusskonzepte von NiFi Entwickeln Sie Erweiterungen mit NiFi und Drittanbieter-APIs Entwickeln Sie Ihren eigenen Apache Nifi-Prozessor Erfassen und Verarbeiten von Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen Publikum Entwickler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifiApache NiFi for Administrators21 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
solrcloudSolrCloud14 StundenApache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
datavaultData Vault: Building a Scalable Data Warehouse28 StundenDie Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
datameerDatameer for Data Analysts14 StundenDatameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
tigonTigon: Real-time Streaming for the Real World14 StundenTigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 StundenApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
apexApache Apex: Processing Big Data-in-Motion21 StundenApache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
BDATRBig Data Analytics for Telecom Regulators16 StundenUm die Compliance der Regulierungsbehörden zu erfüllen, können CSPs (Communication Service Provider) auf Big zugreifen Data Analytics, die ihnen nicht nur dabei helfen, Compliance zu erfüllen, sondern auch im Rahmen derselben Projekt können sie die Kundenzufriedenheit erhöhen und somit die Abwanderung reduzieren In der Tat seit Compliance bezieht sich auf Servicequalität, die an einen Vertrag geknüpft ist, jegliche Initiative zur Erfüllung des Vertrags Compliance, wird den "Wettbewerbsvorteil" der CSPs verbessern Daher ist es wichtig, dass Die Aufsichtsbehörden sollten in der Lage sein, eine Reihe von Big-Data-Analysepraktiken für CSPs zu beraten / zu leiten von gegenseitigem Nutzen zwischen den Regulierungsbehörden und CSPs sein 2 Tage natürlich: 8 Module, jeweils 2 Stunden = 16 Stunden .
alluxioAlluxio: Unifying Disparate Storage Systems7 StundenAlexio ist ein virtuelles virtuelles verteiltes Speichersystem, das verteilte Speichersysteme vereint und Anwendungen mit Daten mit Speichergeschwindigkeit interagieren lässt Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Alexio verschiedene Berechnungs-Frameworks mit Speichersystemen überbrücken und Multipetabyte-Daten effizient verwalten können, während sie mit Alluxio eine Anwendung erstellen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big-Data-Systeme und -Anwendungen unter Beibehaltung eines Namespace Effiziente Extraktion von Werten aus Big Data in jedem Speicherformat Verbessern Sie die Arbeitslastleistung Bereitstellen und Verwalten von Alluxio Standalone oder Clustered Publikum Datenwissenschaftler Entwickler Systemadministrator Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
flinkFlink for Scalable Stream and Batch Data Processing28 StundenApache Flink ist ein Open Source-Framework für skalierbare Stream- und Batch-Datenverarbeitung In diesem instruierten Live-Training werden die Prinzipien und Vorgehensweisen für die verteilte Datenverarbeitung im Stream und Batch vorgestellt und die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung geführt Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Richten Sie eine Umgebung für die Entwicklung von Datenanalyseanwendungen ein Paketieren, Ausführen und Überwachen von flinkbasierten, fehlertoleranten Daten-Streaming-Anwendungen Verwalten Sie verschiedene Workloads Führen Sie erweiterte Analysen mit Flink ML durch Richten Sie einen multinode Flink-Cluster ein Messen und optimieren Sie die Leistung Integrieren Sie Flink in verschiedene Big Data Systeme Vergleichen Sie Flink-Funktionen mit denen anderer Big Data-Frameworks Publikum Entwickler Architekten Dateningenieure Analytics-Profis Technische Manager Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
samzaSamza for Stream Processing14 StundenApache Samza ist ein OpenSource-Echtzeit-asynchrones Berechnungs-Framework für die Stream-Verarbeitung Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolierung, Sicherheit und Ressourcenverwaltung Dieses instruierte Live-Training stellt die Prinzipien vor, die hinter Messaging-Systemen und verteilter Stream-Verarbeitung stehen, während die Teilnehmer durch die Erstellung eines Samzabased-Beispielprojekts und der Jobausführung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Samza, um den Code zu vereinfachen, der zum Erstellen und Verwenden von Nachrichten benötigt wird Entkoppeln Sie die Handhabung von Nachrichten aus einer Anwendung Verwenden Sie Samza, um die asynchrone Echtzeitberechnung zu implementieren Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene als Messaging-Systeme bereitzustellen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
zeppelinZeppelin for Interactive Data Analytics14 StundenApache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
magellanMagellan: Geospatial Analytics on Spark14 StundenMagellan ist eine OpenSource-Engine für die verteilte Ausführung von geospatialen Analysen auf Big Data Es wurde auf Apache Spark implementiert und erweitert Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics Dieses instruierte Live-Training stellt die Konzepte und Ansätze für die Implementierung von Geospacial-Analysen vor und führt die Teilnehmer durch die Erstellung einer Anwendung zur Vorhersageanalyse mithilfe von Magellan on Spark Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Effizientes Abfragen, Analysieren und Verknüpfen von Geodatensätzen im Maßstab Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen Verwenden Sie räumlichen Kontext, um die Funktionen von mobilen Geräten, Sensoren, Protokollen und Wearables zu erweitern Publikum Anwendungsentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
hdpHortonworks Data Platform (HDP) for Administrators21 StundenDie Hortonworks Data Platform ist eine Open-Source Apache Hadoop-Support-Plattform, die eine stabile Grundlage für die Entwicklung von Big Data-Lösungen für das Apache Hadoop-Ökosystem bietet Dieses instruierte Live-Training stellt Hortonworks vor und führt die Teilnehmer durch den Einsatz der Spark + Hadoop-Lösung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Hortonworks, um Hadoop in großem Umfang zuverlässig auszuführen Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit Sparks agilen analytischen Workflows Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturiert, unstrukturiert, Inmotion und atrest Publikum Hadoop-Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
PentahoDIPentaho Data Integration Fundamentals21 StundenPentaho Data Integration ist ein Open Source-Datenintegrationstool zur Definition von Jobs und Datentransformationen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie die leistungsstarken ETL-Funktionen und die umfangreiche GUI von Pentaho Data Integration nutzen können, um den gesamten Lebenszyklus von Big Data zu verwalten und den Wert von Daten für das Unternehmen zu maximieren Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, zeigen Sie eine Vorschau an und führen Sie grundlegende Datenumwandlungen mit Schritten und Hops aus Konfigurieren und sichern Sie das Pentaho Enterprise Repository Nutzen Sie unterschiedliche Datenquellen und generieren Sie eine einheitliche Version der Wahrheit in einem analytikbereiten Format Bereitstellung von Ergebnissen für Drittanwendungen zur weiteren Verarbeitung Publikum Daten Analyst ETL-Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
TalendDITalend Open Studio for Data Integration 28 StundenTalend Open Studio für Datenintegration ist ein Open Source-Datenintegrationsprodukt, das zum Kombinieren, Konvertieren und Aktualisieren von Daten an verschiedenen Standorten in einem Unternehmen verwendet wird In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mit dem Talend ETL-Tool Datentransformation, Datenextraktion und Konnektivität mit Hadoop, Hive und Pig durchführen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein Erläutern Sie die Konzepte hinter ETL (Extract, Transform, Load) und Propagation Definieren Sie ETL-Methoden und ETL-Tools für die Verbindung mit Hadoop Sammeln, erfassen, verdauen, konsumieren, transformieren und gestalten Sie Big Data effizient gemäß den Geschäftsanforderungen Hochladen und Extrahieren großer Datensätze aus Hadoop-Datenbanken (optional), Hive-Datenbanken (optional) und NoSQL-Datenbanken Publikum Business Intelligence-Experten Projektmanager Datenbankprofis SQL-Entwickler ETL Entwickler Lösungsarchitekten Datenarchitekten Data-Warehousing-Profis Systemadministratoren und Integratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
graphcomputingIntroduction to Graph Computing28 StundenEine große Anzahl von realen Problemen kann anhand von Graphen beschrieben werden Zum Beispiel das Web-Diagramm, das Diagramm des sozialen Netzwerks, das Diagramm des Zugnetzwerks und das Sprachen-Diagramm Diese Graphen neigen dazu, extrem groß zu sein; ihre Verarbeitung erfordert einen speziellen Satz von Werkzeugen und Prozessen Diese Werkzeuge und Prozesse können als Graph Computing (auch Graph Analytics genannt) bezeichnet werden In diesem instruierten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Grafikdaten kennen Ziel ist es, Realworld-Objekte, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und als Daten zu verarbeiten Wir beginnen mit einem breiten Überblick und konzentrieren uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Implementierungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen, wie Diagrammdaten beibehalten und durchlaufen werden Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis hin zu Frameworks für die Stapelverarbeitung) Implementieren Sie Hadoop, Spark, GraphX ​​und Pregel, um Graph-Computing parallel auf vielen Maschinen auszuführen Betrachten Sie reale Datenprobleme in Form von Graphen, Prozessen und Traversalen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 StundenFortschritte bei den Technologien und die zunehmende Menge an Informationen verändern die Art und Weise, in der die Strafverfolgung durchgeführt wird Die Herausforderungen, die Big Data mit sich bringt, sind fast so gewaltig wie die Versprechen von Big Data Die effiziente Speicherung von Daten ist eine dieser Herausforderungen es effektiv zu analysieren ist ein anderes In diesem instruierten Live-Training lernen die Teilnehmer die Denkweise kennen, mit der sie Big Data-Technologien angehen, ihre Auswirkungen auf bestehende Prozesse und Richtlinien bewerten und diese Technologien zum Zweck der Identifizierung krimineller Aktivitäten und zur Verhinderung von Kriminalität einsetzen können Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Adoptionsansätze, Herausforderungen und Ergebnisse zu erhalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Kombinieren Sie Big-Data-Technologie mit traditionellen Datenerfassungs-Prozessen, um während einer Untersuchung eine Geschichte zusammenzustellen Implementieren Sie industrielle Big-Data-Speicher- und Verarbeitungslösungen für die Datenanalyse Vorbereitung eines Vorschlags für die Einführung der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes bei strafrechtlichen Ermittlungen Publikum Strafverfolgungsspezialisten mit technischem Hintergrund Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
ambariApache Ambari: Efficiently Manage Hadoop Clusters21 StundenApache Ambari ist eine Open-Source-Managementplattform für die Bereitstellung, Verwaltung, Überwachung und Sicherung von Apache Hadoop-Clustern In diesem instruierten Live-Training lernen die Teilnehmer die von Ambari zur Verfügung gestellten Management-Tools und -Praktiken kennen, um Hadoop-Cluster erfolgreich zu verwalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Richten Sie einen Live-Big-Data-Cluster mit Ambari ein Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie Verbessern Sie die Leistung eines Hadoop-Clusters durch Optimieren und Optimieren Publikum DevOps Systemadministratoren DBAs Hadoop-Testprofis Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
bigdataMBig Data and its Management Process14 StundenZiel : Dieser Kurs zielt darauf ab, den Teilnehmern zu vermitteln, warum Big Data unser Leben verändert und die Art und Weise verändert, wie Unternehmen uns als Verbraucher sehen In der Tat finden Nutzer von Big Data in Unternehmen, dass Big Data eine Fülle von Informationen und Erkenntnissen freisetzt, die zu höheren Gewinnen, geringeren Kosten und weniger Risiken führen Der Nachteil war jedoch manchmal Frustration, wenn man zu viel Wert auf einzelne Technologien legte und sich nicht ausreichend auf die Säulen des Big-Data-Managements konzentrierte Die Teilnehmer lernen in diesem Kurs, wie sie die Big Data mithilfe ihrer drei Säulen Datenintegration, Data Governance und Datensicherheit verwalten müssen, um Big Data in echten Geschäftswert zu verwandeln Verschiedene Übungen, die anhand einer Fallstudie zum Kundenmanagement durchgeführt wurden, helfen den Teilnehmern, die zugrunde liegenden Prozesse besser zu verstehen .
bigdataanahealthBig Data Analytics in Health21 StundenBig Data Analytics umfasst den Prozess der Untersuchung großer Mengen verschiedener Datensätze, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken Die Gesundheitsindustrie verfügt über enorme Mengen komplexer heterogener medizinischer und klinischer Daten Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein enormes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung Die Ungeheuerlichkeit dieser Datensätze stellt jedoch große Herausforderungen bei Analysen und praktischen Anwendungen in einem klinischen Umfeld dar In diesem instruierten Live-Training (remote) lernen die Teilnehmer, wie sie Big-Data-Analysen in der Gesundheit durchführen, während sie eine Reihe von Hands-on-Liveslab-Übungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Big-Data-Analysetools wie Hadoop MapReduce und Spark Verstehen Sie die Eigenschaften von medizinischen Daten Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen Publikum Entwickler Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 StundenSqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes Es kann verwendet werden, um Daten von einem relationalen Datenbankverwaltungssystem (RDBMS) wie MySQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) zu importieren Danach können die Daten in Hadoop MapReduce umgewandelt und dann wieder in ein RDBMS exportiert werden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Sqoop Daten aus einer traditionellen relationalen Datenbank in Hadoop-Speicher wie HDFS oder Hive und umgekehrt importieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Sqoop Importieren Sie Daten von MySQL nach HDFS und Hive Importieren Sie Daten aus HDFS und Hive in MySQL Publikum Systemadministratoren Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
beamUnified Batch and Stream Processing with Apache Beam14 StundenApache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
pentahoPentaho Open Source BI Suite Community Edition (CE)28 StundenPentaho Open Source Die BI Suite Edition (CE) ist ein Business-Intelligence-Paket, das Datenintegration, Berichterstellung, Dashboards und Ladefunktionen bietet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie die Funktionen der Open Source BI Suite Community Edition (CE) von Pentaho maximieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und Konfigurieren von Pentaho Open Source BI Suite Community Edition (CE) Verstehen Sie die Grundlagen der Pentaho CE-Tools und ihrer Funktionen Erstellen Sie Berichte mit Pentaho CE Integrieren Sie Daten von Drittanbietern in Pentaho CE Arbeiten Sie mit Big Data und Analytics in Pentaho CE Publikum Programmierer BI-Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
amazonredshiftAmazon Redshift21 StundenAmazon Redshift ist ein Cloud-basierter Data Warehouse-Service für Petabytescale in AWS In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Amazon Redshift kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Amazon Redshift Laden, Konfigurieren, Bereitstellen, Abfragen und Visualisieren von Daten mit Amazon Redshift Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
introtostreamprocessingA Practical Introduction to Stream Processing21 StundenDie Stream-Verarbeitung bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh auf Berechnungen von Daten während des Empfangs Diese Daten werden als kontinuierliche Datenströme aus Datenquellen wie Sensorereignisse, Website-Benutzeraktivitäten, Finanzgeschäfte, Kreditkarten-Swipes, Klick-Streams usw gelesen Stream-Processing-Frameworks können große Mengen eingehender Daten lesen und liefern nahezu unmittelbar wertvolle Informationen In diesem instruierten Live-Training (vor Ort oder Remote) lernen die Teilnehmer, wie sie verschiedene Stream-Processing-Frameworks mit bestehenden Big-Data-Storage-Systemen und zugehörigen Software-Anwendungen und Microservices einrichten und integrieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie verschiedene Stream Processing-Frameworks, z B Spark Streaming und Kafka Streaming Verstehen und wählen Sie das am besten geeignete Framework für den Job aus Prozess von Daten kontinuierlich, gleichzeitig und in einer Aufzeichnung durch Aufzeichnungsmodus Integration von Stream-Processing-Lösungen in bestehende Datenbanken, Data Warehouses, Data Lakes usw Integration der am besten geeigneten Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices Publikum Entwickler Software-Architekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .

Zukünftige Big Data Kurse

CourseSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
Hadoop Administration - ZürichMo, 2018-12-03 09:304500EUR / 5150EUR
Hadoop Administration - BaselDi, 2019-01-01 09:304500EUR / 5150EUR
Hadoop Administration - BernMi, 2019-01-02 09:304500EUR / 5150EUR
Hadoop Administration - ZürichDi, 2019-01-29 09:304500EUR / 5150EUR
Hadoop Administration - BaselDi, 2019-02-26 09:304500EUR / 5150EUR
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

CourseOrtSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
System Engineering using SysML and UML 2Frankfurt am MainMo, 2018-11-19 09:305198EUR / 5998EUR
Managing Configuration with AnsibleFrankfurt am MainMi, 2018-11-21 09:304455EUR / 5255EUR
Git for UsersBernDo, 2018-11-22 09:301350EUR / 1700EUR
IoT ( Internet of Things) for Entrepreneurs, Managers and InvestorsGrazMo, 2018-12-03 09:30N/A / 5375EUR
Python Programming for FinanceBerlin Mo, 2018-12-03 09:307875EUR / 9075EUR
Hadoop AdministrationLinzDi, 2018-12-04 09:304050EUR / 4700EUR
OCEB2 OMG Certified Expert in BPM - Fundamental Exam PreparationErfurtMi, 2018-12-19 09:306300EUR / 7300EUR
Advanced RSalzburgDo, 2019-01-31 09:301575EUR / 1925EUR
IoT: Build an IoT Application with ThingWorxBernMi, 2019-03-06 09:302700EUR / 3200EUR
Ripple for Financial ManagersLeipzigFr, 2019-03-15 09:301350EUR / 1750EUR
Financial Trading with RBernMi, 2019-04-24 09:304725EUR / 5375EUR
Matlab for Prescriptive AnalyticsGrazDo, 2019-04-25 09:303150EUR / 3650EUR
Comprehensive BPMN 2 - From Analysis to ExecutionBernMo, 2019-04-29 09:307875EUR / 8825EUR
NLP: Natural Language Processing with RBernMo, 2019-05-20 09:304725EUR / 5375EUR

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Switzerland!

As a Business Development Manager you will:

  • expand business in Switzerland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!