Computer-Evolution und Definition von "denken"
Das mit der Evolution ist ein interessanter und noch relativ neuer Ansatz.
Zwar gibt es das "Game of Life" schon länger, aber daß man mit solchen Algorithmen sogar ganz allgemeine (logische
) Probleme lösen kann, hat man erst in den letzten zehn Jahren oder so erfolgreich ausprobiert.
KI-Apostel wie der berühmte Moravec sind sogar der Meinung, daß sich Intelligenz im Computer am besten von selbst entwickelt. Man solle deshalb Roboter bauen, damit der Computer Erfahrungen machen kann und ähnlich wie der Mensch "evolutionieren". Er meint sogar, wir würden dann bald von sich selbst verbessernden Maschinen abgelöst.. (wer hat ihm als Kind seinen Lolli weg genommen?? ;-) )
Wer gerne Asimovs Roboter-Geschichten liest, der hält die denken Maschinen vielleicht auch eher für möglich.. nur weil wir uns es heute nicht vorstellen können oder mögen, ist das kein Beweis, daß es nicht doch so kommt, siehe Flugzeuge oder sogar Raumschiffe. Wer hätte denn vor zwanzig Jahren wirklich geglaubt, daß Schachcomputer mal ein Meisterniveau erreichen werden, und das schon so bald?
Doch bleibt es interessant zu diskutieren, ab wann denn der Computer "denkt", oder was wäre der richtige Test. Weil die Definition des denkens so schnell philosophisch und nicht mehr formalisierbar wird ,weicht man in der KI aus und spricht lieber von Computern, die denkende Tätigkeiten nachbilden.. man geht also gleich ins Exempel, und sagt beispielsweise, Dialogsysteme die vernünftige, verwendbare Antworten oder Fragen geben, sind künstlich intelligent. Das kann man dann beobachten und muß nicht überlegen, wie die Intelligenz zu stande kommt, das sind dann die "Implementationsdetails".. (man ist sich sogar relativ einig darüber, daß es ein "Implementationsdetail" ist, ob ein Programm mit einem neuronalen Netz oder mit einer Programmiersprache realisiert wird.. insofern bilden wir uns auf das Gehirn nicht so viel ein, als daß es nicht auch durch ein ewig langes und total langsames BASIC-Programm in manchen seiner Funktionen simuliert werden könnte, Betonung auf "manche" und "simuliert").
Wenn man Dialogprogramme testet, wie es auch der berühmte Mathematiker Turing einmal als Intelligenz-Kriterium gefordert hat, kann es einem passieren, daß man sich nicht mehr sicher ist, ob es ein Computer ist oder ein Mensch, der die Antwort forumliert.. wenigstens über ein paar Zeilen hinweg kann es zufällig und dank eines geschickten Algorithmus so aussehen, als finde ein echter Dialog statt, also ein Informationsaustausch zwischen bewußten Wesen. Das komische dabei ist, daß man sich mit all seiner persönlichen (menschlichen) Intelligenz dabei selbst hinters Licht führt, denn wir sind gewohnt, die Informationen der anderen "wohlwollend" zu interpretieren, d.h. Übermittlungsfehler oder Ungenauigkeiten glätten wir mal eben und lassen sie durch unsere Interpretation gut aussehen.. und das macht man dann schnell auch mit dem Dialogprogramm, wenn man für einen Moment "vergißt", daß man es ja eigentlich als "dummes Programm" überführen will. Die feine Linie zwischen Kommunikation und Selbst-Täuschung wird also vor allem auch durch unsere Erwartungen und Einstellungen gezogen, und ist daher sehr schwer objektivierbar.
Die klassische KI wurde manchmal mit der Frage umschrieben, wie weit man denn mit Symbol-Operationen gehen könne.. eine Frage, die in ähnlicher Weise von Hilbert an die Mathematik gerichtet wurde, als er fragte, ob es nicht beweisbare Aussagen gäbe, also dem Formalismus auch Grenzen gesetzt sind? Später fand Turing eine solche Grenze der Formalisierbarkeit im Halteproblem: ein Programm kann nicht ein anderes Programm konsultieren um es zu fragen, ob es zu Ende kommt oder ewig weiterläuft. Ich möchte glauben, daß dies daran liegt, daß die Trennung der beiden Programme (dem "Halte-Tester", und dem zu prüfenden Programm) von vorneherein eine gedachte ist, und diese gedachte Trennlinie fliegt eben auf, wenn der Halte-Tester seinen "Job" macht und das Programm wirklich prüft: er stürzt dann selber ab, oder terminiert, aber im Absturzfall wird es kein Ergebnis melden können.
So ähnlich fliegt die Trennlinie zwischen zwei bewussten Wesen auf, oder auch zwischen einem bewussten Wesen und seinem technischen Spielzeug, wenn man sich dem Turing-Test unterzieht und anfängt zu prüfen.. schließlich hilft man seiner eigenen Illusion, wenn man beginnt, computer-generierte Texte zu interpretieren und versucht, einen Sinn in sie hineinzulesen, und es ist nicht mehr ganz klar, was "meins" ist und was mir das Gegenüber tatsächlich sagen wollte..