Schulungsübersicht

1. Verständnis der Klassifizierung mittels nächster Nachbarn

  • Der kNN-Algorithmus
  • Berechnung des Abstands
  • Auswählen eines geeigneten k
  • Daten für die Verwendung von kNN vorbereiten
  • Warum ist der kNN-Algorithmus träge?

2. Verständnis von Naive Bayes

  • Grundlegende Konzepte der Bayes'schen Methoden
  • Wahrscheinlichkeit
  • Gemeinsame Wahrscheinlichkeit
  • Bedingte Wahrscheinlichkeit mit Bayes' Theorem
  • Der naive Bayes-Algorithmus
  • Die naive Bayes-Klassifikation
  • Der Laplace-Schätzer
  • Verwendung numerischer Merkmale mit Naive Bayes

3. Entscheidungsbäume verstehen

  • Teilen und Erobern
  • Der C5.0-Algorithmus für Entscheidungsbäume
  • Auswahl der besten Aufteilung
  • Beschneiden des Entscheidungsbaums

4. Verständnis der Klassifizierungsregeln

  • Trennen und Überwinden
  • Der Ein-Regel-Algorithmus
  • Der RIPPER-Algorithmus
  • Regeln aus Entscheidungsbäumen

5. Regression verstehen

  • Einfache lineare Regression
  • Gewöhnliche Kleinste-Quadrate-Schätzung
  • Korrelationen
  • Mehrfache lineare Regression

6. Verständnis von Regressionsbäumen und Modellbäumen

  • Hinzufügen von Regression zu Bäumen

7. Neuronale Netze verstehen

  • Von biologischen zu künstlichen Neuronen
  • Aktivierungsfunktionen
  • Netzwerktopologie
  • Die Anzahl der Schichten
  • Die Richtung der Informationsübertragung
  • Die Anzahl der Knoten in jeder Schicht
  • Training neuronaler Netze mit Backpropagation

8. Verständnis von Support-Vektor-Maschinen

  • Klassifizierung mit Hyperebenen
  • Suche nach dem maximalen Spielraum
  • Der Fall von linear trennbaren Daten
  • Der Fall von nicht linear trennbaren Daten
  • Verwendung von Kerneln für nichtlineare Räume

9. Verständnis von Assoziationsregeln

  • Der Apriori-Algorithmus für das Lernen von Assoziationsregeln
  • Messung des Regelinteresses - Unterstützung und Vertrauen
  • Aufbau eines Satzes von Regeln mit dem Apriori-Prinzip

10. Verstehen von Clustering

  • Clustering als eine Aufgabe des maschinellen Lernens
  • Der k-means Algorithmus für Clustering
  • Verwendung von Distanz zur Zuweisung und Aktualisierung von Clustern
  • Auswahl der geeigneten Anzahl von Clustern

11. Leistungsmessung bei der Klassifizierung

  • Arbeiten mit Klassifikationsvorhersagedaten
  • Ein genauerer Blick auf Konfusionsmatrizen
  • Verwendung von Konfusionsmatrizen zur Leistungsmessung
  • Über die Genauigkeit hinaus - andere Messgrößen der Leistung
  • Die Kappa-Statistik
  • Sensitivität und Spezifität
  • Präzision und Wiedererkennung
  • Das F-Maß
  • Visualisierung von Leistungsabwägungen
  • ROC-Kurven
  • Schätzung der zukünftigen Leistung
  • Die Holdout-Methode
  • Kreuzvalidierung
  • Bootstrap Stichproben

12. Tuning von Aktienmodellen für bessere Leistung

  • Verwendung von Caret zur automatischen Parameterabstimmung
  • Erstellen eines einfachen abgestimmten Modells
  • Anpassen des Abstimmungsprozesses
  • Verbessern der Modellleistung mit Meta-Lernen
  • Verstehen von Ensembles
  • Bagging
  • Boosten
  • Zufällige Wälder
  • Training von Random Forests
  • Bewertung der Leistung von Random Forests

13. Deep Learning

  • Drei Klassen von Deep Learning
  • Deep Autoencodern
  • Vortrainierte tiefe Neural Networks
  • Deep Stacking Netzwerke

14. Diskussion über spezifische Anwendungsbereiche

  21 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

Erfahrungsberichte (1)

Kombinierte Kurse

Verwandte Kategorien