AIMA Notizen
Teil VI
Kapitel 18: Lernen durch Beobachtung
Inhalt
- Benutzung der Wahrnehmung
nicht nur für die Wahl zukünftiger Handlungen sondern
auch, um die Fähigkeit zukünftige Handlungen zu
wählen auszubauen
- Lernen aus der
Selbstwahrnehmung von Entscheidungsprozessen und der Wahrnehmung der
Ergebnisse dieser Entscheidungsprozesse
- hier wird nur induktives
Lernen in der Aussagenlogik betrachtet, nicht in der
Prädikatenlogik
- Formen des Lernens
- siehe Kapitel 2: der
lernende Agent enthält eine ausführende und eine
Lernkomponente, die die ausführende Komponente beobachtet und
modifiziert.
- Designfragen:
- welche Teile der
ausführenden Komponente können modifiziert werden?
- Condition-Action Regeln
- Inferenz aus
Wahrnehmungen
- hidden causes von
Wahrnehmungen, Weltwissen
- ...
- welches Feedback steht
zum Lernen zur Verfügung?
- überwachtes
Lernen (inklusive selbst ausprobieren)
- nichtüberwachtes
Lernen (nicht in diesem Kapitel)
- verstärkendes
Lernen (nicht in diesem Kapitel)
- wie ist das Lernbare
intern repräsentiert?
- a priori-Wissen
- Induktives Lernen
- es geht darum, anhand
einer Menge von Trainingspaaren (Argument, Wert) einer unbekannten
Funktion f, eine möglichst gute Näherung h (wie
Hypothese) der Funktion f zu finden.
- Generalisierung: h erzeugt
auch für noch nicht gesehene Argumente gute Werte
- Ockham's
Sparsamkeitsprinzip: es gilt die simpelste Hypothese zu
wählen, die die Daten korrekt beschreibt
- in welchem Bereich soll
h möglichst gut sein?
- müssen die
Beispielpaare exakt getroffen werden, oder können Fehler
inkauf genommen werden?
- Hypothesenraum H: Raum der
Funktionen, aus denen h ausgewählt wird
- typischerweise Polynome
mit bestimmtem, maximalen Grad
- beliebig komplexe
Hypothesenräume machen lernen beliebig komplex und nachher
wäre die gelernte Funktion h schwer zu berechnen
- ein Lernproblem
heißt realisierbar, wenn f im Hypothesenraum enthalten ist
- Lernen mit
Entscheidungsbäumen
- für Funktionen,
die true/false zurückgeben
- an jedem inneren Knoten
ein Prädikat über die Eingabe, von dem die
Entscheidung für den nächsten Knoten abhängt
- Blätter tragen
true/false
- für einige
Funktionen schlecht geeignet (z. B. Mehrheitsfunktion, wenn mehr als
die Hälfte der Eingaben 1 sind)
- dann
tatsächliche Komplexität 2n,
sonst meist viel geringer
- Entscheidungsbäume
anhand von Trainingsdaten aufbauen
- gesucht ist
tatsächlich der minimale (oder zumindest ein kleiner)
Entscheidungsbaum
- immer den minimalen
Baum zu finden ist zu komplex
- wir müssen
Overfitting an die Trainingsdaten vermeiden
- Wahl des
Attributs/Prädikats das in einem Knoten zur
Entscheidung benutzt wird
- jenes das am meisten
Information trägt
- Informationsgehalt der
Antwort A auf einen Test mit Wahrscheinlichkeiten für
mögliche Antworten P(vi):
- I(A)
= ∑(-P(vi) * log2(P(vi))
- wir suchen das Attribut, bei dem der Informationsgewinn
zwischen vor und nach Anwendung der Klassifizierung am höchsten ist
- wenn kein Attribut mehr da ist, wird der Wert der Mehrheit
der enthaltenen Daten zurückgegeben
- Vermeidung von Overfitting:
- Signifikanztest, ob der Informationsgewinn hoch genug ist
- Cross-Validation: Overfitting an zurseitegelegten Testdaten
erkennen
- Ensemble Learning
- boosting:
- mehrere Entscheidungsbäume
- keine kompletten Entscheidungsbäume, sondern stark
geprunte (also Baumstümpfe)
- die Trainingsdaten werden nach und nach gewichtet
- im letzten Baum falsche wiegen im nächsten schwerer
- Ergebnis ist die Mehrheitsentscheidung aller Bäume
- Computationelle Lerntheorie:
warum lernen funktioniert
letzte Änderung: 21.
Dezember 2004.
mail AT timobaumann.de