Schulungsübersicht

Schnelle Übersicht

  • Daten-Quellen
  • Daten im Blick
  • Empfehlende Systeme
  • Ziel Marketing

Datentypen

  • Strukturiert vs. unstrukturiert
  • Statisch vs. gestreamt
  • Einstellungsdaten, Verhaltensdaten und demografische Daten
  • Datengesteuerte vs. nutzergesteuerte Analytik
  • Datenvalidität
  • Volumen, Geschwindigkeit und Vielfalt der Daten

Modelle

  • Aufbau von Modellen
  • Statistische Modelle
  • Maschinelles Lernen

Klassifizierung von Daten

  • Clustering
  • kGroups, k-means, die nächstgelegenen Nachbarn
  • Ameisenkolonien, Vogelschwärme

Prädiktive Modelle

  • Entscheidungsbäume
  • Support-Vektor-Maschine
  • Naive Bayes-Klassifizierung
  • Neuronale Netze
  • Markov-Modell
  • Regression
  • Ensemble-Methoden

ROI

  • Nutzen/Kosten-Verhältnis
  • Kosten der Software
  • Kosten der Entwicklung
  • Potenzieller Nutzen

Erstellung von Modellen

  • Datenaufbereitung (MapReduce)
  • Bereinigung von Daten
  • Auswahl der Methoden
  • Entwicklung des Modells
  • Testen des Modells
  • Bewertung des Modells
  • Einsatz und Integration von Modellen

Überblick über Open Source und kommerzielle Software

  • Auswahl von R-Projektpaketen
  • Python Bibliotheken
  • Hadoop und Mahout
  • Ausgewählte Apache-Projekte mit Bezug zu Big Data und Analytik
  • Ausgewählte kommerzielle Lösung
  • Integration mit bestehender Software und Datenquellen

Voraussetzungen

Kenntnisse der traditionellen Datenverwaltungs- und Analysemethoden wie SQL, Data Warehouses, Business Intelligence, OLAP usw. Kenntnisse der grundlegenden Statistik und Wahrscheinlichkeitsrechnung (Mittelwert, Varianz, Wahrscheinlichkeit, bedingte Wahrscheinlichkeit usw. ....)

 21 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Erfahrungsberichte (1)

Verwandte Kategorien