1. | Lernen allgemein (Feedback, Zielfunktion, Abschaetzen von Trainingswerten, Methoden der kleinsten Quadrate, Lernen als Suchen im Hypothesenraum) |
2. | Konzept-Lernen (Find-S, Version-Space, Candidate-Elimination, Induktiver Bias) |
3. | Entscheidungsbaeume (Entropie, ID3, Vergleich zu 2, falsifizieren, Occam's Messer, Overfitting, Erweiterungen von ID3: Post-Pruning |
4. | Bewerten von Hypothesen error-S, error-D, Konfidenzintervall, Binomial-Verteilung, Zentraler Grenzwertsatz, Gauss-Verteilung, Vergleich von Lern-Algorithmen) |
5. | Bayes'sches Lernen (Bayessches Theorem: Aids-Test, 3 Todeskandidaten, Ziegenproblem, optimale Klassifikation nach Bayes) |
6. | Lernen von Regeln (Induktives Logisches Programmieren) (Sequential Covering, CN2, Learn-one-Rule, Vergleich zu ID3/Find(S)/Cand-Elim., Performance-Implementierung, AL vs. Pl1, FOIL: Generate_Literals, Foil_Gain, Termination, unendliche Rekursion, inverse Resolution, CIGOL, allgemeines ILP-Problem, Subsumption, alg. bottom-up Algorithmus, Plotkin's lgg, GOLEM, determinate Literals) |