توضیحاتی در مورد کتاب Data Mining
نام کتاب : Data Mining
ویرایش : 2nd updated ed.
عنوان ترجمه شده به فارسی : داده کاوی
سری :
نویسندگان : Jürgen Cleve, Uwe Lämmel
ناشر : De Gruyter Oldenbourg
سال نشر : 2016
تعداد صفحات : 328
ISBN (شابک) : 9783110456776
زبان کتاب : German
فرمت کتاب : pdf
حجم کتاب : 6 مگابایت
بعد از تکمیل فرایند پرداخت لینک دانلود کتاب ارائه خواهد شد. درصورت ثبت نام و ورود به حساب کاربری خود قادر خواهید بود لیست کتاب های خریداری شده را مشاهده فرمایید.
فهرست مطالب :
Vorwort\nInhaltsverzeichnis\n1. Einführung\n 1.1 Auswertung von Massendaten\n 1.2 Data Mining und Business Intelligence\n 1.3 Ablauf einer Datenanalyse\n 1.4 Interdisziplinarität\n 1.5 Erfolgreiche Beispiele\n 1.6 Werkzeuge\n 1.6.1 KNIME\n 1.6.2 WEKA\n 1.6.3 JavaNNS\n2. Grundlagen des Data Mining\n 2.1 Grundbegriffe\n 2.2 Datentypen\n 2.3 Abstands- und Ähnlichkeitsmaße\n 2.4 Grundlagen Künstlicher Neuronaler Netze\n 2.5 Logik\n 2.6 Überwachtes und unüberwachtes Lernen\n3. Anwendungsklassen\n 3.1 Cluster-Analyse\n 3.2 Klassifikation\n 3.3 Numerische Vorhersage\n 3.4 Assoziationsanalyse\n 3.5 Text Mining\n 3.6 Web Mining\n4. Wissensrepräsentation\n 4.1 Entscheidungstabelle\n 4.2 Entscheidungsbäume\n 4.3 Regeln\n 4.4 Assoziationsregeln\n 4.5 Instanzenbasierte Darstellung\n 4.6 Repräsentation von Clustern\n 4.7 Neuronale Netze als Wissensspeicher\n5. Klassifikation\n 5.1 K-Nearest Neighbour\n 5.1.1 K-Nearest-Neighbour-Algorithmus\n 5.1.2 Ein verfeinerter Algorithmus\n 5.2 Entscheidungsbaumlernen\n 5.2.1 Erzeugen eines Entscheidungsbaums\n 5.2.2 Auswahl eines Attributs\n 5.2.3 Der ID3-Algorithmus zur Erzeugung eines Entscheidungsbaums\n 5.2.4 Entropie\n 5.2.5 Der Gini-Index\n 5.2.6 Der C4.5-Algorithmus\n 5.2.7 Probleme beim Entscheidungsbaumlernen\n 5.2.8 Entscheidungsbaum und Regeln\n 5.3 Naive Bayes\n 5.3.1 Bayessche Formel\n 5.3.2 Der Naive-Bayes-Algorithmus\n 5.4 Vorwärtsgerichtete Neuronale Netze\n 5.4.1 Architektur\n 5.4.2 Das Backpropagation-of-Error-Lernverfahren\n 5.4.3 Modifikationen des Backpropagation-Algorithmus\n 5.4.4 Ein Beispiel\n 5.5 Support Vector Machines\n 5.5.1 Grundprinzip\n 5.5.2 Formale Darstellung von Support Vector Machines\n 5.5.3 Ein Beispiel\n6. Cluster-Analyse\n 6.1 Arten der Cluster-Analyse\n 6.2 Der k-Means-Algorithmus\n 6.3 Der k-Medoid-Algorithmus\n 6.4 Erwartungsmaximierung\n 6.5 Agglomeratives Clustern\n 6.6 Dichtebasiertes Clustern\n 6.7 Clusterbildung mittels selbstorganisierender Karten\n 6.7.1 Aufbau\n 6.7.2 Lernen\n 6.7.3 Visualisierung einer SOM\n 6.7.4 Ein Beispiel\n 6.8 Clusterbildung mittels neuronaler Gase\n 6.9 Clusterbildung mittels ART\n 6.10 Der Fuzzy-c-Means-Algorithmus\n7. Assoziationsanalyse\n 7.1 Der A-Priori-Algorithmus\n 7.1.1 Generierung der Kandidaten\n 7.1.2 Erzeugen der Regeln\n 7.2 Frequent Pattern Growth\n 7.3 Assoziationsregeln für spezielle Aufgaben\n 7.3.1 Hierarchische Assoziationsregeln\n 7.3.2 Quantitative Assoziationsregeln\n 7.3.3 Erzeugung von temporalen Assoziationsregeln\n8. Datenvorbereitung\n 8.1 Motivation\n 8.2 Arten der Datenvorbereitung\n 8.2.1 Datenselektion und -integration\n 8.2.2 Datensäuberung\n 8.2.3 Datenreduktion\n 8.2.4 Datentransformation\n 8.3 Ein Beispiel\n9. Bewertung\n 9.1 Prinzip der minimalen Beschreibungslängen\n 9.2 Interessantheitsmaße für Assoziationsregeln\n 9.2.1 Support\n 9.2.2 Konfidenz\n 9.2.3 Gain-Funktion\n 9.2.4 p-s-Funktion\n 9.2.5 Lift\n 9.3 Gütemaße und Fehlerkosten\n 9.3.1 Fehlerraten\n 9.3.2 Weitere Gütemaße für Klassifikatoren\n 9.3.3 Fehlerkosten\n 9.4 Testmengen\n 9.5 Qualität von Clustern\n 9.6 Visualisierung\n10. Eine Data-Mining-Aufgabe\n 10.1 Die Aufgabe\n 10.2 Das Problem\n 10.3 Die Daten\n 10.4 Datenvorbereitung\n 10.5 Experimente\n 10.5.1 K-Nearest Neighbour\n 10.5.2 Naive Bayes\n 10.5.3 Entscheidungsbaumverfahren\n 10.5.4 Neuronale Netze\n 10.6 Auswertung der Ergebnisse\nA. Anhang\n A.1 Iris-Daten\n A.2 Sojabohnen\n A.3 Wetter-Daten\n A.4 Kontaktlinsen-Daten\nAbbildungsverzeichnis\nTabellenverzeichnis\nVerzeichnis der Symbole\nVerzeichnis der Abkürzungen\nLiteraturverzeichnis\nIndex