Schulungsübersicht

Detaillierte Schulungsübersicht

    Einführung in NLP NLP verstehen NLP-Frameworks Kommerzielle Anwendungen von NLP Scraping von Daten aus dem Web Arbeiten mit verschiedenen APIs zum Abrufen von Textdaten Arbeiten und Speichern von Textkorpora Speichern von Inhalten und relevanten Metadaten Vorteile der Verwendung von Python und NLTK-Crashkurs Praktisches Verständnis eines Korpus und Datensatzes Warum Brauchen wir einen Korpus? Korpusanalyse Arten von Datenattributen Verschiedene Dateiformate für Korpora Vorbereiten eines Datensatzes für NLP-Anwendungen Verstehen der Struktur von Sätzen Komponenten von NLP Verständnis natürlicher Sprache Morphologische Analyse – Stamm, Wort, Token, Sprach-Tags Syntaktische Analyse Semantische Analyse Umgang mit Mehrdeutigkeit Vorverarbeitung von Textdaten Korpus - Rohtext Satz-Tokenisierung Stemming für Rohtext Lemmisierung von Rohtext Stoppwortentfernung Korpus-Rohsätze Word Tokenisierung Word Lemmatisierung Arbeiten mit Term-Dokument/Dokument-Term-Matrizen Text-Tokenisierung in N-Gramme und Sätze Praktische und maßgeschneiderte Vorverarbeitung Analysieren von Textdaten. Grundfunktion von NLP-Parsern und Parsen von POS-Tagging und -Taggern. Erkennung von Namensentitäten. N-Gramm. Beutel mit Wörtern. Statistische Merkmale von NLP. Konzepte der linearen Algebra für NLP. Wahrscheinlichkeitstheorie für NLP. TF-IDF-Vektorisierungs-Encoder und -Decoder. Normalisierung. Probabilistische Modelle. Erweitertes Feature-Engineering und NLP Grundlagen von Word2vec Komponenten des Word2vec-Modells Logik des Word2vec-Modells Erweiterung des Word2vec-Konzepts Anwendung des Word2vec-Modells Fallstudie: Anwendung von Bag of Words: automatische Textzusammenfassung mit vereinfachten und echten Luhn-Algorithmen Dokumenten-Clustering, Klassifizierung und Themenmodellierung Dokumenten-Clustering und Pattern Mining (hierarchisches Clustering, k-Means, Clustering usw.) Vergleichen und Klassifizieren von Dokumenten mithilfe von TFIDF-, Jaccard- und Kosinus-Distanzmaßen Dokumentenklassifizierung mithilfe von Naive Bayes und maximaler Entropie Identifizieren wichtiger Textelemente Reduzieren der Dimensionalität: Hauptkomponentenanalyse, Singularwertzerlegung Nicht-negative Matrixfaktorisierung. Themenmodellierung und Informationsabfrage mithilfe der Entitätsextraktion der latenten semantischen Analyse, der Stimmungsanalyse und der erweiterten Themenmodellierung. Positiv vs. negativ: Grad der Stimmung. Item-Response-Theorie. Teil der Sprachkennzeichnung und ihre Anwendung: Finden von Personen, Orten und Organisationen, die in erwähnt werden Text Erweiterte Themenmodellierung: Latente Dirichlet-Zuordnung Fallstudien Mining unstrukturierter Benutzerrezensionen Stimmungsklassifizierung und Visualisierung von Produktbewertungen Data Mining Suchprotokolle für Nutzungsmuster Textklassifizierung Themenmodellierung

Voraussetzungen

Kenntnisse und Bewusstsein für NLP -Prinzipien und Verständnis für KI-Anwendungen in der Wirtschaft

  21 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

Erfahrungsberichte (2)

Kombinierte Kurse

Smart Robots for Developers

  84 Stunden

Verwandte Kategorien