1. Teil der Vorlesung "Knowledge Discovery"

basierend auf dem Buch Machine Learning
1. Lernen allgemein
(Feedback, Zielfunktion, Abschaetzen von Trainingswerten,
Methoden der kleinsten Quadrate, Lernen als Suchen im Hypothesenraum)
2. Konzept-Lernen
(Find-S, Version-Space, Candidate-Elimination, Induktiver Bias)
3. Entscheidungsbaeume
(Entropie, ID3, Vergleich zu 2, falsifizieren, Occam's Messer,
Overfitting, Erweiterungen von ID3: Post-Pruning
4. Bewerten von Hypothesen
error-S, error-D, Konfidenzintervall, Binomial-Verteilung,
Zentraler Grenzwertsatz, Gauss-Verteilung, Vergleich von Lern-Algorithmen)
5. Bayes'sches Lernen
(Bayessches Theorem: Aids-Test, 3 Todeskandidaten, Ziegenproblem,
optimale Klassifikation nach Bayes)
6. Lernen von Regeln (Induktives Logisches Programmieren)
(Sequential Covering, CN2, Learn-one-Rule, Vergleich zu ID3/Find(S)/Cand-Elim.,
Performance-Implementierung, AL vs. Pl1, FOIL: Generate_Literals, Foil_Gain,
Termination, unendliche Rekursion, inverse Resolution, CIGOL,
allgemeines ILP-Problem, Subsumption, alg. bottom-up Algorithmus,
Plotkin's lgg, GOLEM, determinate Literals)

Juergen Dix
Last modified: Wed Mar 25 13:36:07 MET 1998