AIMA Notizen
Teil VIII
Kapitel 26: Philosophische Grundlagen
Inhalt
-
schwache KI vs. starke KI
- "schwache KI"-Hypothese:
Maschinen können Intelligenz
erfolgreich simulieren
- "starke KI"-Hypothese:
Maschinen können tatsächlich
intelligent sein
- KI-Forscher bejahen
meist die schwache Annahme und ignorieren
die starke, da sie (zumindest heute noch) nicht relevant ist.
- Dennoch sollte jeder
KI-Forscher die Risiken der
KI-Entwicklung (sowohl schwache als auch starke) kennen und beachten.
-
"schwache KI"-Hypothese
- Definition "denken",
"Intelligenz" (gewohnheitliche
Festlegung -> Vergleich mit
"fliegen", "sprechen")
- deswegen besser ein
Verhaltenstest, der intelligentes
Verhalten prüft
- Gegenargument der
Unfähigkeit (A. Turing)
- Qualität der
Ergebnisse angewandter KI spricht
für Intelligenz, weil
das erreichte Level, für bestimmte (intelligente?)
Aufgabenstellungen,
mit dem von Experten vergleichbar ist.
- Menschen
müssen für solche Aufgaben Themengebiete
kennen und
verstehen. Computer zeigen immerhin das gleiche Verhalten wie Menschen,
obwohl die eingesetzten Verfahren differieren.
- gleichzeitig gibt es
Aufgabenstellungen in denen Computer
noch gnadenlos versagen.
- Mathematisches
Gegenargument (J. R. Lucas)
- Gödelscher
Unvollständigkeitssatz (siehe
F1!): Es gibt Sätze, die innerhalb des formalen Systems nicht
bewiesen werden können.
- unvollständiges
Argument, da Computer keine
Turingmaschinen sind (sie
sind beschränkt) und es ausserdem auch logische
Beschränkungen für
Menschen gibt.
- letzlich wird
für Computer logisch und für
Menschen "gefühlsmässig" argumentiert.
- Gegenargument der
Informalität (H. Dreyfus)
- eine intelligente
Antwort "kommt einem einfach", ihr
Weg ist nicht
analysierbar. Menschen haben einen "Sinn" dafür, was zu tun
und
was zu
erwarten ist.
- ignoriert wie Ideen im
Menschen entstehen
- weitere Argumente von
Dreyfus haben nurnoch
historischen Wert.
-
"starke KI"-Hypothese
- was ist denn Denken? was
ist denn Intelligenz ->
Bewusstsein,
Absicht?
- was unterscheidet
simuliertes Denken von "echtem"?
- ist eine simulierte
Addition eine Addition, ein simuliertes
Schachspiel ein Schachspiel?
- eigentlich nur
"höfliche Annahme" dass Menschen tatsächlich
denken und es nicht nur simulieren...
- künstlich "ist"
oder "ist nicht" normal? (vgl.
künstliche
Befruchtung ist Befruchtung, aber künstlicher Champagner ist
nicht
Champagner). -> Gewohnheitsentscheidung, ob künstlich =
normal
oder nicht. -> für Intelligenz gibt es noch keine
Gewohnheit,
daher müssen wir uns auf die Intuition verlassen.
- Funktionalismus: ein
mentaler Zustand ist ein
Zwischenzustand, bestimmt durch Input und Output. Zwei
unterschiedliche, aber isomorphe Systeme haben dieselben inneren
Zustände. Ein den Menschen (auf abstrakter Ebene)
simulierender
Computer hätte dieselben mentalen Zustände wie der
Mensch.
- Biologischer
Naturalismus: Mentale Zustände entstehen
durch interne Prozesse in den einzelnen Neuronen. Daher kann ein
Programm diese nicht simulieren. Die Art der Prozesse wird nicht
spezifiziert und ob andere Instanzen als (natürliche) Neuronen
diese haben können ebenfalls nicht.
- Das
Geist-Körper-Problem (Mind-Body-Problem)
- fragt nach Zusammenhang
zwischen mentalem Zustand und
Körperzustand (vor allem Hirnzustand)
- Erweiterung zum
Geist-Architektur-Problem, um künstliche
Intelligenz zu erlauben
- zwei Sichten
- Dualismus
(Descartes): unsterbliche Seele interagiert mit
sterblichem
Körper;
-> wie funktioniert diese Interaktion?
- Monoïsmus,
Materialismus: es gibt keine
unsterblichen
Seelen, mentaler und Körperzustand sind identisch;
-> wie entsteht
bzw. gibt es freien Willen, Bewusstsein, Selbstwahrnehmung,
Gefühl?
- abstrakter
Körper-/(Hirn-)Zustand: unabhängig von
den beteiligten Elementarteilchen -> isomorphe Zustände
- Das Experiment des
entkoppelten Hirns ("brain in a vat"
experiment)
- Hirn vom Körper
entkoppelt aber mit dem (entfernten)
Körper über Informationskanäle verbunden
- ->
Hirnzustände sind unabhängig von
tatsächlichen Körperzuständen, weil diese
auch simuliert
werden können
- "weite Sicht":
allwissender Beobachter, der Hirn UND
Körper beobachtet und die Zustände entsprechend
einteilt
- "schmale Sicht":
subjektive, interne Sicht
- für den Geist
spielt die tatsächliche Welt keine
Rolle, sondern nur die wahrgenommene
- -> hirninterne,
intrinsische Wahrnehmung
- Das
Hirnprothesenexperiment (Glymour, Searle, Moravec)
- einzelne Neuronen lassen
sich simulieren und ihr Zustand
vollständig zwischen Simulation und echtem Neuron
übertragen
- nacheinander werden alle
Neuronen durch künstliche
ersetzt und anschliessend werden alle künstlichen durch die
ursprünglichen zurückersetzt. Der Zustand der
Neuronen wird
dabei angepasst.
- Bleibt das Bewusstsein,
der Geist vorhanden?
- wenn ja, dann gibt es
eine Maschine mit Geist!
- funktionalistische
Abstraktion vom einzelnen Neuron zum
ganzen Hirn -> gibt es Maschinen (die intern anders aufgebaut
sein
können als das Hirn), die dieses nach aussen hin perfekt
simulieren,
so haben auch sie Geist und sind intelligent
- ein hinreichend
grosses Zustandsübergangsdiagramm
wäre intelligent, was intuitiv falsch ist
- Der Chinesische Raum
(Searle, 1980)
- Argument: intelligentes
Verhalten ist nicht hinreichend
für Intelligenz
- Mensch bearbeitet (ihm
unverständliche) Eingaben nach
einem Regelwerk und produziert Ausgaben
- interne Sicht: kein
intelligentes Verhalten, sondern stupide
Regelanwendung
- externe Sicht:
intelligente Ausgaben, Geist,
Selbstwahrnehmung, etc.
- -> externe Sicht,
Systemantwort, über "höfliche
Annahme von Intelligenz" gedeckt
- soll die
funktionalistische Sicht intuitiv falsifizieren
- logisch relativ
unvollständig: selbst wenn der
chinesische Raum keinen Geist hat, kann ein anderes Programm Geist
haben.
-
Ethik und Risiken der
Entwicklung künstlicher Intelligenz
- Risiken:
- Arbeitslosigkeit durch
Automatisierung
- viele Applikationen
sind durch KI erst möglich
geworden, da Menschen zu teuer wären
- diese Applikationen
haben insgesamt zu Wachstum und damit
zu Arbeitsplätzen geführt
- KI ersetzt "dumme"
Jobs und erzeugt anspruchsvollere, aber
auch besser bezahlte Arbeitsplätze
- der Ansatz des
Intelligenten Agenten fokussiert weniger
darauf, Menschen zu ersetzen als der Ansatz des Expertensystems
- zu viel oder zu wenig
Freizeit für Menschen
- in der
Wissensgesellschaft steht das Einkommen in einem
exponentiellen Verhältnis zur eingesetzten Zeit
(früher:
lineares Verhältnis)
- KI fördert
die Wissensgesellschaft
- gleichzeitig erlaubt
KI auch längere, automatisch
überwachte, Arbeitspausen
- -> Trend in der
Gesellschaft, in kurzer Zeit
(projektorientiert) viel zu arbeiten und danach Pausen zu machen
(Sabbaticals)?
- Verlust der "Krone der
Schöpfung"
- wir haben schon andere
Entkrönungen überlebt: die
Menschen sind irgendwelche Tiere auf irgendeinem Planeten irgendeines
Sterns. Nichts besonderes.
- Verlust von
Privatsphäre
- kein echtes
Konterargument
- tatsächlich
ernstzunehmende Bedrohung
- beste Verteidigung:
ein intelligenter Agent der uns
schützt?
- Probleme der
Verantwortlichkeit (Mensch/Maschine)
- noch Unklarheiten in
der Gesetzeslage (auch in Deutschland?)
- letztendlich muss es
einen Verantwortlichen (Menschen) geben
- Konzept des
Intelligenten Agenten: Vorschläge machen
und diese begründen; die Entscheidungen bleiben in
menschlicher
Hand
- z. B.
medizinische Entscheidungen werden auch anhand
ihres zu erwartenden Nutzens (vor Gericht) bewertet,
unabhängig
von ihren tatsächlichen Folgen
- Übernahme der
Welt durch intelligente Maschinen
- Intelligente Agenten
sind nicht zum erobern, sondern zum
unterstützen konstruiert. Inkrementelle Verbesserungen
können
nicht auf einmal zu gegenteiligem Verhalten führen
- Intelligente Agenten
müssen also "gewaltfrei"
programmiert werden. Allerdings sind Menschen aggressiv, programmieren
sie auch so?
- Ist die Welt nicht
schon von Autos erobert worden?
- Intelligenzexplosion
(technologische Singularität;
J.J. Good, V. Vinge):
- Intelligente
Maschinen zu entwickeln erfordert
Intelligenz. Kann einmal eine Maschine hergestellt werden, die
intelligenter ist, als ihr Erzeuger, so kann sie selbst noch bessere,
noch intelligentere Maschinen herstellen usw. Der Mensch ist dieser
Explosion hoffnungslos unterlegen.
- setzt voraus, dass
Menschen Maschinen entwickeln
können, die ihrer eigenen Intelligenz entsprechen. Wenn sie
das
nicht schaffen, dann fehlt der Zünder für die
Explosion.
- Bisher jede
technologische exponentielle Entwicklung hat
sich irgendwann (zumindest in ihrer Wirkung) abgeflacht. Das Niveau
dieses Plateaus kann über oder der menschlichen Intelligenz
liegen, steigt aber nicht mehr explosionsartig.
- Transhumanismus (R.
Kurzweil): (körperliche)
Vereinigung von Menschen mit ihren Intelligenten Agenten; Symbiose:
Maschine bringt Intelligenz, Mensch bringt Person (juristisch, ethisch,
etc.) -> ist das noch fair? Was macht der Mensch dabei?
- Maschinen sind von
Menschen erzeugt und (weitgehend) nach
seinem Beispiel modelliert. Sie sind damit "Kinder im Geiste" der
Menschen und das Kinder die Welt übernehmen ist ganz normal.
Schon
heute findet Fortschritt ja weniger im Genom als in Erziehung und
Gesellschaft statt.
- Ethik:
- wenn Maschinen Geist
haben, dann muss mit ihnen
verantwortungsvoll umgegangen werden (kein "ungewolltes" abschalten,
umprogrammieren)
- intelligente Maschinen
müssen ethische Grundsätze
befolgen
-
Geschichte und
weiterführende Literatur
- Turing (1950): "Computing
Machinery and Intelligence"
Argumentationsstruktur
- für schwache KI
- lediglich externes
Verhalten interessant
- Maschinen erreichen bei
vielen Aufgabenstellungen (die nach
landläufiger Meinung Intelligenz erfordern) zu Menschen
gleichwertige Ergebnisse
- ABER: es gibt bisher keine
Maschine, die in allen
Aufgabenstellungen mit dem Menschen vergleichbare, intelligente
Ergebnisse liefert
- -> Frage nach
simulierter Intelligenz knüpft sich an
die Frage der Definition von Intelligenz
- für starke KI
- was ist das
Alleinstellungsmerkmal menschlicher Intelligenz,
welches ihre von künstlicher unterscheidet?
- gegen Risiken der
Entwicklung von KI
letzte Änderung: 20. Dezember 2004.
mail AT timobaumann.de