Wird ein bischen mehr Text. Aber keine Angst, ich tippe gerne, und meist einfach, was mir gerade einfällt (daraus können sich durchaus etwas komische Anordnungen und unlogische Zusammenhänge ergeben <: ). Eine Gewisse Art von Selbstreflektion. (:
@Schlumbumpi:
> alles, was irgendwie schlüssig erklärt und beschrieben werden kann, und das mit
> Symbolverarbeitung bzw. logisch-arithmetischen Prozessen zu tun hat oder auf diese
> zurückgeführt werden kann, [...] kann wohl dann auch in einem Progrämmchen umgesetzt werden.
Da läßt sich in der Berechenbarkeitstheorie aber anderes beweisen. Es gibt unendlich viele nichtlösbare/nichtberechenbare Probleme und unendlich viele praktisch nichtberechnbare Probleme.
Und wir wissen so wenig über die Funktionsweise unseres Gehirns und können noch weniger davon umsetzen, daß man an eine Realisierung gar nicht zu denken braucht. Die heutigen Rechner sind weiter weg als eine Kuh vom Eierlegen.
> da er sowohl unser Gedächtnis erweitert
Mein Gedächtnis erweitert sich dadurch nicht im geringsten. Das der Computer aus meiner Sicht extern Informationen speichern, ist eine schöne Sache. Das tut ein Blatt Papier aber auch. Bei Aufnahme und Verarbeitung muß wie bei jeder anderen Informationsaufnahme transformiert und kategorisiert werden, es gibt da absolut keinen Unterschied zu anderen Informationen.
> z.B. durch die ernorme Geschwindigkeit, der verwalteten Daten
Die Geschwindigkeit ist in der Tat hoch, nur ist das eben kein Maß für Effizienz. Das Verwalten von Daten ist bei einem Computer beispielsweise derbe ineffizient. Kein Chunking, keine Schemata, keine Kategorisierung, keine Integration, keine Inferenz, keine Selektion, keine Reduktion. Natürlich kannst du künstlich auferlegte Kategorien erzwingen und entsprechende Informationen filtern, im Endeffekt hat das nichts mit semantischer Umstrukturierung und Neubilden und Verbessern von intern repräsentieren Daten zu tun. Selbst neuranole Netze sind nicht zu modalitätsspezifischen Verarbeiten von Daten fähig, eine anforderungsbedingte Umstrukturierung dürfte auch wegfallen.
Hat man beispielsweise zweimal die gleichen Objekte zweidimensional dargestellt, aber jeweils aus einem anderen Winkel und mit einer unterschiedlichen Drehung, so könnten wir sowas dank mentaler Rotation in ein paar Sekunden erkennen. Es ist eine relativ einfache Denkleistung und Gedächtnisleistung. Dieses Problem ist für Computer trotz riesiger Datenbestände selbst unter großem Zeitaufwand je nach Objekt schwer bis gar nicht lösbar. Das menschliche Gehirn tut nebenbei noch dutzende anderer Sachen, bewerten, optimieren, umstrukturieren, Abläufe steuern, hunderte Muskeln kontrollieren, Handlungen ausführen, alle Sinnesorgane laufen parallel, Emotionen und tausende von Informationen werden ausgewertet, es wird gedacht, Probleme gelöst, Dinge gespeichert, Erinnerungen abgerufen, Assoziationen erstellt, kommuniziert, erkannt, verstanden, Mimiken und Gestiken werden unbewußt nebenbei interpretiert, entsprechende Reaktionen veranlaßt, es wird analysiert, kategorisiert, vergessen, gespeichert. Wenn man hierüber wirklich nachdenkt, findet man sicherlich weitaus mehr und weitaus repräsentativere Eigentschaften und Vorgänge.
Wir bestimmen ganz nebenbei Entfernungen, Geschwinigkeiten, hören und verstehen Dinge, können Informationen unbewußt verarbeiten und entsprechend bewußt bearbeiten (der eigene Name wird in lautstarken Umgebungen beispielsweise sehr viel deutlicher wahrgenommen).
Wie sehen einen Hund auf einem Tisch und wissen einfach, daß das nicht normal ist. Ein Computer muß dazu komplette Datenbestände durchwühlen, um dann vielleicht auf ein Ergebnis zu kommen. Er mag dies tausend mal schneller tun als ich, ich habe mein Ergebnis aber früher (oder überhaupt). Seine Vorteile mag er beim Rechnen ausspielen, aber genau das macht ein Computer ja: rechnen.
Selbst Roboter, die von fetten Rechnern gesteuert werden, schaffen gerade mal Schrittgeschwindigkeit in der Ebene auf zwei Beinen zu erreichen und gleichzeitig eine Tür zu öffnen, daß ganze bei einem vorprogrammierten Pfad. Und dann ist bereits Sense. Etwas, was für mein Gehirn in etwa soviel Aufwand bedeutet, wie das Rumliegen einen Aufwand für einen Stein bedeutet. Aber damit entfernen wir uns ja bereits vom Denken.
> Wäre dieser Hinweis auf ein "ich" nicht die Vorbedingung dafür zu sagen,
> daß der Computer denkt, also daß man ihm die Tätigkeit des denkens
> direkt zuschreiben kann?
Nicht unbedingt. Ein Insekt möchte auch aus dem Fenster fliegen, aber mit Denken hat das sicherlich nichts zu tun. Und dem Computer sind solche Eigenschaften nur instruiert worden. Bevor er selbstständig etwas für wichtig "persönlich" wichtig erachtet, Präferenzen festliegt und Dinge lieber tut als andere, braucht er ersteinmal Emotionen. Mir ist absolut nichts bekannt, was man in der Hinsicht erforscht oder erreicht haben soll. Mein Rechner hat keine Emotionen und mein Rechner denkt jedenfalls nicht.
Mein Computer hat auch gar nicht das notwendige Wissen, um an meine Leistungen heranzukommen. Mein Gehirn verwaltet mehrere Petabyte an Informationen, die durch 24 Jahre Denkleistung und Erfahrung entstanden sind. Ein einmaliges Wissen, das es in dieser Form, in diesen Strukturen und Verknüpfungen, Auffassungen und Meinungen, Vorlieben und Lieben kein zweites mal gibt. Auch langzeitiges trainieren von Rechnern/Robotern führt nicht zu einem solchen Wissensstand, schon allein, weil man die Daten nicht so repräsentieren und so effizient verarbeiten kann.
PS: SciFi mag ich auch und bin Technik gegenüber generell aufgeschlossen (sonst wäre ich wohl nicht in so einem Board). Vielleicht erreicht man die Leistungen des Gehirns in ein paar hundert Jahren, vielleicht nie. Ich weiß es nicht, und ich werde es (zum Glück) auch nie erleben. Ich sage nicht, daß es so kommen wird und ich sage nicht, daß es unmöglich ist. Nach unserem heutigen Stand der Technik ist es absolut unrealisierbar, es fehlt schon an Ideen, die man überhaupt umsetzen könnte.
PPS: Sorry, falls viele Fehler im Text sein sollten. Ist schon spät.