AIMA Notizen
Teil V
Kapitel 13: Ungewissheit
Inhalt
- Verhalten bei Ungewissheit
- praktisch alle komplexeren
Umwelten sind probabilistisch
- oder stellen sich
zumindest für den Agenten so dar
- Beispiel: am Flughafen
sein, für die Strecke braucht man normalerweise
90 Minuten
- typischerweise muss man
sagen: mein Plan klappt, wenn mir nicht die
Welt auf den Kopf fällt. Da man nie weiß ob das
passiert, kann ein
logischer Agent dann nichts tun.
- ein logischer Agent, der
nicht genau weiß was er tun soll, tut nichts.
- für den logischen
Agenten müsste die Theorie über die Welt vereinfacht
(also verfälscht) werden und die Pläne des Agenten
würden nicht immer aufgehen. Um herauszufinden wie genau die
Welt vereinfacht werden soll, ist auch probalistisches
Überlegen nötig
- Ein Agent muss bei
Ungewissheit das Ziel nicht erreichen (ob er es erreicht steht
schließlich außerhalb seiner Macht),
- vielmehr muss er
diejenigen Aktionen auswählen, die sein
Leistungsmaß, das aus verschieden gewichteten Zielen besteht
optimieren
- im Beispiel: er muss so
losfahren, dass er wahrscheinlich rechtzeitig ist, gleichzeitig aber
überflüssiges Warten vermeiden
- der Agent braucht einen
Glauben, eine Überzeugung davon, wie die Welt ist
- in der Medizin:
- Symptom zeigt nicht mit
Sicherheit Krankheit an.
- Krankheit führt
nicht unbedingt zum Sympton.
- Krankheit und Symptom
können unabhängig voneinander auftreten
- -> es gibt aber
gewisse Wahrscheinlichkeiten
- Wahrscheinlichkeitstheorie
erlaubt uns, die Ungewissheit in Zahlen zu fassen und mit ihr umzugehen
- nicht Fakten haben einen
gewissen Grad von Wahrheit, sondern unser Wissen über die
Fakten (teilweise wahre Fakten -> fuzzy logic)
- die Auswahl von Aktionen
muss aufgrund ihrer Nützlichkeit erfolgen, da es viele
Aktionen gibt, die ein Ziel, jeweils mit einer gewissen
Wahrscheinlichkeit, erreichen
- Nützlichkeit
hängt von der Nutzfunktion des Agenten ab und kann von Agent
zu Agent unterschiedlich sein
- Entscheidungstheorie =
Wahrscheinlichkeitstheorie + Nutzentheorie
- größter
anzunehmender Nutzen: rationales Verhalten bedeutet, die Aktion zu
wählen, die in der Summe der Ergebnisse den
größten Nutzen verspricht
- einfache Notation
für Wahrscheinlichkeit
- Behauptungen/Aussagen
waren bisher entweder wahr, falsch oder unbestimmt
- ab jetzt können
Aussagen Wahrheitswerte zugeordnet werden
- Zufallsvariable haben
bestimmte Domänen und können mit gewissen
Wahrscheinlichkeiten die Werte innerhalb der Domäne annehmen
- boolesche
Zufallsvariablen -> auch als Abkürzungen für
logische Formeln
- diskrete Zufallsvariablen
- kontinuierliche
Zufallsvariablen (werden hier kaum betrachtet, meist wird nicht
Gleichheit, sondern Ordnung geprüft: X ≤ 4.3)
- atomare Ereignisse sind
die kompletten Spezifikationen zur Beschreibung der Welt. Es kann immer
nur ein atomares Ereignis tatsächlich wahr sein (aber
natürlichkann der Agent mehreren Wahrscheinlichkeiten zuordnen)
- unbedingte
Wahrscheinlichkeit: Wahrscheinlichkeit für ein Ereignis
unabhängig von der Beobachtung der Welt
- Wahrscheinlichkeitsverteilung
einer Zufallsvariablen
- joint probability
distribution: gemeinsame
Verteilung mehrerer Zufallsvariablen,
dom(P(X,Y)=dom(P(X))⋅dom(P(Y)).
- bedingte
Wahrscheinlichkeit: P(a|b) = P(a ∧ b) / P(b), bzw. P(a
∧ b) = P(b)⋅P(a|b).
- Axiome der
Wahrscheinlichkeitsrechnung
- P(a
∨ b) = P(a) + P(b) − P(a ∧ b).
- einige andere mehr.
- die Wahrscheinlichkeit
komplexer Aussagen ist die Summe der Wahrscheinlichkeiten der atomaren
Aussagen aus denen sie besteht
- Agenten deren
Überzeugung von der Welt nicht mit den Axiomen der
Wahrscheinlichkeitsrechnung übereinstimmt, machen Fehler.
- Probabilistische
Inferenz
- wenn wir die komplette
gemeinsame Verteilung von Zufallsvariablen kennen, können wir
beliebige Verknüpfungen dieser Variablen ausrechnen
- Normalisierung: wenn
Wahrscheinlichkeiten ausrechnen, teilen wir immer durch etwas, sodass
am Ende in der Summe aller Möglichkeiten 1 herauskommt.
- ein Algorithmus der aus
der gemeinsamen Verteilung die einzelnen Zufallsvariablen herausrechnet
ist vollständig
- allerdings
läuft er in O(2n)
Zeit und die Tabelle hat die Größe in O(2n).
- Es wird vorallem schnell
unmöglich, die Tabellendaten zu erheben.
- Unabhängigkeit
- zwei
Zufallsvariablen X und Y sind unabhängig, wenn für
alle Belegungen von X und Y gilt: P(X ∧ Y) = P(X)⋅P(Y).
- für unabhängige Zufallsvariablen zerfällt die
gemeinsame Verteilung in das Produkt der einzelnen Verteilungen und aus
O(2n) wird O(n).
- natürlich ist es schon hilfreich wenn die
Zufallsvariablen gruppenweise unabhängig voneinander sind.
- Bayes'sche
Regel
- P(b|a) = P(a|b) / P(a).
- Häufig ist die bedingte Wahrscheinlichkeit in eine
Richtung leichter zu erheben als in die andere. Da kann sie dann
ausgerechnet werden.
- wenn die Wahrscheinlichkeit, zum Beispiel für b aus
irgendeinem Grund stark ansteigt, dann ändert sich P(b|a)
entsprechend mit, wenn P(a|b) sich nicht verändert (kausales
Wissen ist üblicherweise robuster als diagnostiziertes Wissen).
- bedingte Unabhängigkeit zweier Zufallsvariablen: P(X,Y|Z)
= P(X|Z)⋅P(Y|Z)
- X und Y sind zwar abhängig von Z, aber nicht voneinander.
- damit kann die gemeinsame Verteilung aller Variablen sehr
viel kompakter als gemeinsame Verteilungen von jeweils einigen
Variablen dargestellt und berechnet werden.
- bedingte Unabhängigkeit ist, im Unterschied zu echter
Unabhängigkeit häufiger anzutreffen.
- naïves Bayes-Modell
- nimmt an, dass Effekte nur von einer Ursache abhängen
aber untereinander unabhängig sind.
- P(Cause, Eff1, Eff2, ..., Effn)
= P(Cause)⋅∏P(Effi|Cause).
- meist falsch (daher naïv), aber dennoch häufig gute
Ergebnisse
- naïve Bayes-Modelle können vergleichsweise einfach
gelernt werden (Kapitel 20).
- Anwendung in der Wumpus-Welt
- es kann passieren, dass wir nicht wissen wo das Loch ist, das
den Luftzug auslöst.
- wir können aber trotzdem die Wahrscheinlichkeiten für
die unterschiedlichen Möglichkeiten ausrechnen.
- damit sind wir nicht darauf angewiesen "auszuprobieren",
sondern können eine "educated guess" abgeben
letzte Änderung: 22.
Dezember 2004.
mail AT timobaumann.de