From Data to Decision with Big Data and Predictive Analytics Schulung
Publikum
Wenn Sie versuchen, aus den Daten, auf die Sie Zugriff haben, einen Sinn zu machen, oder wenn Sie unstrukturierte Daten analysieren möchten, die im Internet verfügbar sind (z. B. Twitter, Linked in usw.), ist dieser Kurs für Sie.
Es richtet sich hauptsächlich an Entscheidungsträger und Personen, die entscheiden müssen, welche Daten gesammelt und welche analysiert werden sollten.
Es richtet sich nicht an Personen, die die Lösung konfigurieren. Diese Personen werden jedoch vom Gesamtüberblick profitieren.
Lieferungsmodus
Während des Kurses werden den Teilnehmern Arbeitsbeispiele von meist Open Source-Technologien vorgestellt.
Auf kurze Vorträge folgen Präsentationen und einfache Übungen der Teilnehmer
Inhalt und verwendete Software
Die gesamte verwendete Software wird jedes Mal aktualisiert, wenn der Kurs ausgeführt wird. Wir überprüfen daher die neuesten Versionen.
Es umfasst den Prozess vom Abrufen, Formatieren, Verarbeiten und Analysieren der Daten, um zu erklären, wie der Entscheidungsprozess mit maschinellem Lernen automatisiert werden kann.
Schulungsübersicht
Schnelle Übersicht
- Daten-Quellen
- Daten im Blick
- Empfehlende Systeme
- Ziel Marketing
Datentypen
- Strukturiert vs. unstrukturiert
- Statisch vs. gestreamt
- Einstellungsdaten, Verhaltensdaten und demografische Daten
- Datengesteuerte vs. nutzergesteuerte Analytik
- Datenvalidität
- Volumen, Geschwindigkeit und Vielfalt der Daten
Modelle
- Aufbau von Modellen
- Statistische Modelle
- Maschinelles Lernen
Klassifizierung von Daten
- Clustering
- kGroups, k-means, die nächstgelegenen Nachbarn
- Ameisenkolonien, Vogelschwärme
Prädiktive Modelle
- Entscheidungsbäume
- Support-Vektor-Maschine
- Naive Bayes-Klassifizierung
- Neuronale Netze
- Markov-Modell
- Regression
- Ensemble-Methoden
ROI
- Nutzen/Kosten-Verhältnis
- Kosten der Software
- Kosten der Entwicklung
- Potenzieller Nutzen
Erstellung von Modellen
- Datenaufbereitung (MapReduce)
- Bereinigung von Daten
- Auswahl der Methoden
- Entwicklung des Modells
- Testen des Modells
- Bewertung des Modells
- Einsatz und Integration von Modellen
Überblick über Open Source und kommerzielle Software
- Auswahl von R-Projektpaketen
- Python Bibliotheken
- Hadoop und Mahout
- Ausgewählte Apache-Projekte mit Bezug zu Big Data und Analytik
- Ausgewählte kommerzielle Lösung
- Integration mit bestehender Software und Datenquellen
Voraussetzungen
Kenntnisse der traditionellen Datenverwaltungs- und Analysemethoden wie SQL, Data Warehouses, Business Intelligence, OLAP usw. Kenntnisse der grundlegenden Statistik und Wahrscheinlichkeitsrechnung (Mittelwert, Varianz, Wahrscheinlichkeit, bedingte Wahrscheinlichkeit usw. ....)
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
From Data to Decision with Big Data and Predictive Analytics Schulung - Buchung
From Data to Decision with Big Data and Predictive Analytics Schulung - Anfrage
From Data to Decision with Big Data and Predictive Analytics - Beratungsanfrage
Erfahrungsberichte (2)
Der Inhalt, denn ich fand ihn sehr interessant und denke, dass er mir in meinem letzten Jahr an der Universität helfen wird.
Krishan - NBrown Group
Kurs - From Data to Decision with Big Data and Predictive Analytics
Maschinelle Übersetzung
Richard's training style kept it interesting, the real world examples used helped to drive the concepts home.
Jamie Martin-Royle - NBrown Group
Kurs - From Data to Decision with Big Data and Predictive Analytics
Kommende Kurse
Kombinierte Kurse
Predictive AI in DevOps: Enhancing Software Delivery
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene DevOps-Fachleute, die prädiktive KI in ihre DevOps-Praxis integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Predictive-Analytics-Modelle zur Vorhersage und Lösung von Herausforderungen in der DevOps-Pipeline zu implementieren.
- KI-gesteuerte Tools für eine verbesserte Überwachung und den Betrieb zu nutzen.
- Techniken des maschinellen Lernens anwenden, um die Arbeitsabläufe bei der Softwarebereitstellung zu verbessern.
- Entwurf von KI-Strategien für die proaktive Problemlösung und Optimierung.
- Sich mit den ethischen Aspekten des Einsatzes von KI in DevOps auseinandersetzen.
Introduction to Predictive AI
21 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an IT-Anfänger, die die Grundlagen der prädiktiven KI kennenlernen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Kernkonzepte von Predictive AI und ihre Anwendungen zu verstehen.
- Daten für die prädiktive Analyse sammeln, bereinigen und vorverarbeiten.
- Daten zu erforschen und zu visualisieren, um Erkenntnisse zu gewinnen.
- Grundlegende statistische Modelle zu erstellen, um Vorhersagen zu treffen.
- Bewertung der Leistung von Vorhersagemodellen.
- Anwendung von Predictive AI-Konzepten auf reale Szenarien.
Data Vault: Building a Scalable Data Warehouse
28 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung lernen die Teilnehmer, wie man ein Data Vault.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Verstehen Sie die Architektur und die Designkonzepte hinter Data Vault 2.0 und seine Interaktion mit Big Data, NoSQL und AI.
- Data Vaulting-Techniken nutzen, um Auditing, Tracing und Inspektion von historischen Daten in einem Data Warehouse zu ermöglichen.
- Entwickeln eines konsistenten und wiederholbaren ETL-Prozesses (Extrahieren, Transformieren, Laden).
- Hochskalierbare und wiederholbare Data Warehouses aufbauen und einsetzen.
Spark Streaming with Python and Kafka
7 StundenDiese Live-Schulung unter Anleitung (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Spark Streaming bei der Verarbeitung und Analyse von Echtzeitdaten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Spark Streaming zu verwenden, um Live-Datenströme für die Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.
Confluent KSQL
7 StundenDiese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka Stream Processing implementieren möchten, ohne Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Installieren und konfigurieren Sie Confluent KSQL.
- Einrichten einer Stromverarbeitungspipeline nur mit SQL-Befehlen (keine Java- oder Python-Codierung).
- Datenfilterung, Transformationen, Aggregationen, Joins, Windowing und Sessionisierung vollständig in SQL durchführen.
- Entwerfen und Bereitstellen interaktiver, kontinuierlicher Abfragen für Streaming ETL und Echtzeit-Analysen.
Apache Ignite for Developers
14 StundenDiese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Entwickler, die die Prinzipien der persistenten und reinen In-Memory-Speicherung kennenlernen möchten, während sie die Erstellung eines In-Memory-Computing-Beispielprojekts durchlaufen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
-
Verwenden Sie Ignite sowohl für In-Memory- und On-Disk-Persistenz als auch für eine rein verteilte In-Memory-Datenbank.
Erzielen Sie Persistenz, ohne Daten mit einer relationalen Datenbank zu synchronisieren.
Verwenden Sie Ignite zur Durchführung von SQL und verteilten Joins.
Verbessern Sie die Leistung, indem Sie Daten näher an die CPU verlagern und RAM als Speicher verwenden.
Verteilen Sie Datensätze über einen Cluster, um horizontale Skalierbarkeit zu erreichen.
Integrieren Sie Ignite mit RDBMS, NoSQL, Hadoop und Prozessoren für maschinelles Lernen.
Unified Batch and Stream Processing with Apache Beam
14 StundenApache Apex: Processing Big Data-in-Motion
21 StundenApache Storm
28 StundenApache Storm ist ein verteilter, real-time Computing-Motor, der zur Bereitstellung von Business Intelligence in real-time verwendet wird. Es tut dies, indem Anwendungen zuverlässig unbegrenzte Datenströme verarbeiten können (z. B. Übertragung von Stream).
"Storm ist für Echtzeitverarbeitung, was Hadoop für Batchverarbeitung ist!"
In diesem Live-Training unter Anweisung lernen die Teilnehmer, wie man Apache Storm installiert und konfiguriert und dann eine Apache Storm Anwendung entwickelt und implementiert, um große Daten in Echtzeit zu verarbeiten.
Einige der in dieser Ausbildung enthaltenen Themen umfassen:
- Apache Storm im Zusammenhang mit Hadoop
- Arbeiten mit unbegrenzten Daten
- kontinuierliche Berechnung
- Analysen in Echtzeit
- Distribuierte RPC und ETL-Verarbeitung
Bitte beantragen Sie diesen Kurs jetzt!
Publikum
- Software und ETL Entwickler
- Mainframe Fachkräfte
- Datenwissenschaftler
- Big Data Analytiker
- [ 0 ] Fachleute
Format des Kurses
- Teilverhandlungen, Teildiskussionen, Übungen und schwere Praktiken
Apache NiFi for Administrators
21 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie Apache NiFi in einer Live-Laborumgebung einsetzen und verwalten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Installation und Konfiguration von Apachi NiFi.
- Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes, beschaffen, umwandeln und verwalten.
- Automatisieren von Datenflüssen.
- Streaming-Analysen ermöglichen.
- Unterschiedliche Ansätze für die Datenaufnahme anwenden.
- Umwandeln Big Data und in Geschäftseinblicke.
Apache NiFi for Developers
7 StundenIn dieser von einem Trainer geleiteten Live-Schulung lernen die Teilnehmer die Grundlagen der ablaufbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Architektur von NiFi und die Datenflusskonzepte verstehen.
- Erweiterungen mit NiFi und APIs von Drittanbietern entwickeln.
- Eigene Apache-NiFi-Prozessoren entwickeln.
- Echtzeitdaten aus unterschiedlichen und unüblichen Dateiformaten und Datenquellen erfassen und verarbeiten.
Apache Flink Fundamentals
28 StundenDiese Live-Schulung unter Anleitung eines Dozenten (online oder vor Ort) führt in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
-
Eine Umgebung für die Entwicklung von Datenanalyseanwendungen einrichten.
Verstehen, wie Apache Flink's graph-verarbeitende Bibliothek (Gelly) funktioniert.
Flink-basierte, fehlertolerante Daten-Streaming-Anwendungen paketieren, ausführen und überwachen.
Verwalten verschiedener Arbeitslasten.
Erweiterte Analysen durchführen.
Einrichten eines Flink-Clusters mit mehreren Knoten.
Messen und Optimieren der Leistung.
Flink mit verschiedenen Big Data Systemen integrieren.
Flink-Funktionen mit denen anderer Big-Data-Verarbeitungs-Frameworks vergleichen.
Python and Spark for Big Data (PySpark)
21 StundenIn dieser von einem Trainer geleiteten Live-Schulung lernen die Teilnehmer anhand praktischer Übungen, wie sie Python und Spark gemeinsam zur Analyse von Big Data einsetzen können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Lernen Sie, wie Sie Spark mit Python verwenden, um Big Data zu analysieren.
- Arbeiten Sie an Übungen, die reale Fälle nachbilden.
- Verwenden Sie verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark.
Introduction to Graph Computing
28 StundenIn dieser von einem Trainer geleiteten Live-Schulung lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphdaten kennen. Ziel ist es, Objekte der realen Welt, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und sie als Daten mit einem Graph Computing-Ansatz (auch bekannt als Graph Analytics) zu verarbeiten. Wir beginnen mit einem breiten Überblick und gehen dann anhand einer Reihe von Fallstudien, praktischen Übungen und Live-Einsätzen auf spezifische Tools ein.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Verstehen, wie Graphdaten persistiert und durchlaufen werden.
- Das beste Framework für eine bestimmte Aufgabe auswählen (von Graphdatenbanken bis hin zu Stapelverarbeitungs-Frameworks)
- Implementieren Sie Hadoop, Spark, GraphX und Pregel, um Graphenberechnungen auf vielen Rechnern parallel durchzuführen.
- Betrachten Sie reale Big-Data-Probleme in Form von Graphen, Prozessen und Traversalen.
Apache Spark MLlib
35 StundenMLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene.
Es teilt sich in zwei Pakete:
spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
Publikum
Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark