zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ] /publikationen/publikationen.htm" target="_top">Meine Bücher ]

Searle, John R. : Geist, Gehirn, Programm. In: Zimmerli, W.Ch. / Wolf, S. (Hrsg.): Künstliche Intelligenz

Der Aufsatz enthält das Chinesische Zimmer

Anmerkungen von ...

Schweiger: Searle im Netz

das »Chinesische Zimmer«

Kein Computerprogramm ist von sich aus imstande, einem System Geist einzuhauchen. Die Art und Weise, wie das Gehirn Geist hervorbringt, läßt sich nicht allein mit dem Durchlauf eines Computerprogramms erklären.
Alles andere, was Geist bewirkt, muß auf kausalen Kräften beruhen, die denen des Gehirns zumindest äquivalent sind. Für alle Artefakte, die wir hervorbringen und denen geistige Zustände vorausgingen, welche menschlichen Bewußtseinszuständen äquivalent sind, reicht die Entwicklung eines Computerprogramms an sich noch nicht aus. Vielmehr setzt ein solches Artefakt Leistungen voraus, die denen des Gehirns äquivalent sind.

Materialien

Das chinesische Zimmer Der kalifornische Philosophie-Professor JOHN SEARLE wies darauf hin, dass ein Programm den Turing-Test auch ohne semantisches Verständnis der Dialog-Inhalte bestehen kann. Searles Gegenszenario ist ein sogenanntes „Chinesisches Zimmer“. Darin sitzt eine englischsprachige Person, die kein Wort Chinesisch spricht. Sie hat Körbe voller Karten mit chinesischen Symbolen und eine englischsprachige Anleitung mit Regeln, die vorschreiben, wie man die Symbole sinnvoll kombiniert. Schicken nun Personen von außen eine chinesische Frage als Abfolge von Karten in das Zimmer, kann die Person im Zimmer mit Hilfe ihrer Anleitung und sämtlicher Karten eine Antwort generieren und wieder nach draußen geben. Wenn die Tester außerhalb des Zimmers sie lesen, könnten sie denken, das chinesische Zimmer verstehe tatsächlich Chinesisch, weil die Zeichenfolge eine für jeden Chinesen klar verständliche Antwort im Sinne der eingangs gestellten Frage darstellt. Tatsächlich hat jedoch die Person im Innern rein gar nichts verstanden. Genauso wie der Proband, argumentiert Searle, verhalten sich „sprachverstehende“ und andere wissensbasierten Systeme. Sie verstehen ebenfalls nicht, welche Bedeutungen ihre Antworten haben, obwohl sie formal dem Turing-Test genügen und daher „intelligent“ genannt werden dürften.
Blutner: Was Computer nicht können

Searles Position
1. Denken besteht nicht allein aus dem syntaktischen Hantieren von Symbolen, sondern auch und vor allem aus den semantischen Inhalten, die mit diesen Symbolen verknüpft sind. Da Computeralgorithmen auf einer rein syntaktischen Ebene arbeiten, d.h. nur Symbole miteinander verknüpfen, können sie ergo nicht denken. Searle macht dies an einem Gedankenexperiment klar (das Chinesisches Zimmer).  Dabei wird ein System konstruiert, das den Turing-Test für das Verstehen von Sprache (Chinesisch) besteht. Dennoch, so Searle, kommen wir, wenn wir die Konstruktion des Systems verstehen, zu dem Schluß, daß dieses System tatsächlich kein Chinesisch verstehen kann, jedenfalls nicht in unserem intuitiven Vorverständnis von "Sprachverstehen".  Damit wird die Rolle des Turing-Tests grundsätzlich in Frage gestellt.

2. Searle bezweifelt nicht, daß Computerprogramme die Ergebnisse von Denkvorgängen simulieren können. Das ist aber keineswegs gleichzusetzen mit einer Duplikation dieser Vorgänge. Searle führt die Begriff "starke" und "schwache" KI (Künstliche Intelligenz) zur Markierung dieses Unterschieds ein. Während in der schwachen KI der Computer bloß als Instrument zur Untersuchung geistiger Fähigkeiten (wie Sprachverstehen, Sprachproduktion, Bilder-Erkennen, Denken) benutzt wird, nehmen Vertreter der starken KI an, daß dabei  tatsächlich "mentale Zustände" realisiert werden und daß ein geeignetes Programm tatsächlich Sprache versteht. In Searles eigenen Worten:  ". . . according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitve states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations."

Das ist also die Grundidee des "Computer-Modell des Geistes" (so wie es von Anhängern der starken KI vertreten wird): der Geist ist das Programm und das Hirn ist die Hardware eines computationalen Systems. Oder als Analogie formuliert: "Der Geist verhält sich zum Computer wie das Programm zur Hardware."
Searle bezweifelt beide Seiten dieser Idee.

(A) Der Geist ist kein Computerprogramm. Am Geist ist jedenfalls mehr dran, als ein Computerprogramm jemals erfassen könnte.  Starke  KI ist im derzeitig vorherrschenden Paradigma der Symbolmanipulation ist also nicht möglich. Searles entscheidendes Argument ist  das Chinesisches Zimmer.  Denn da wird ein Programm vorgeführt, daß geistige Leistung bloß vortäuscht. Searle suggeriert nun, daß alle Programme geistige Leistungen bestenfalls vortäuschen. Und zwar deshalb, weil Programme im Paradigma der Symbolmanipulation rein syntaktischen Charakter besitzen und damit niemals zur Inhaltsebene vorstoßen können.

(B) Das Hirn ist kein digitaler Computer.  Die Gegenthese nennt Searle Kognitivismus. Sie beruht darauf, das Hirn als eine universelle Turing-Maschine aufzufassen. Denken ist dann nichts weiter als Informationsverarbeitung.  Wir werden auf den entsprechenden Teil der Searleschen Kritik, die vor allem in Searle (1996) niedergelegt ist, in der letzten Vorlesung zurückkommen, die sich mit dem Leib-Seele-Problem befaßt.

3. Prinzipiell sieht Searle jedoch die Möglichkeit gegeben, eines Tages Systeme (jedoch keine Computer im herkömmlichen Sinne) zu konstruieren, die denken können. Er wendet sich aber gegen die These, dass dieses durch hardwareunabhängige, rein syntaktisch arbeitende  Algorithmen geschehen könne, da diese nur strukturierte Symbole manipulieren würden, während im menschlichen Gehirn eine semantische Ebene dazukommt, die möglicherweise durch die Selbstorganisation von neuronalen Aktivitätsmustern und deren Bezogenheit auf Sinneswahrnehmungen und Motorik (und damit die Außenwelt) gegeben ist.

Das chinesische Zimmer
Man stelle sich vor, in einem Raum zu sitzen, worin sich dicke Büchern mit Regeln, leere Blätter sowie genügend Schreibutensilien befinden. Der Kontakt zur Außenwelt geschieht durch zwei Wandschlitze, die Input und Output heißen. Gelegentlich schiebt jemand Papierstücke mit chinesischen Schriftzeichen durch den Input-Schlitz. Meine Aufgabe als Insasse im chinesischen Zimmer ist nun, den Abschnitt in einem der Regelbücher zu finden, der mit der Sequenz von Schriftzeichen auf dem eingesteckten Papierstück übereinstimmt. Das Regelbuch sagt dann, welche Schriftzeichen auf ein leeres Blatt Papier zu schreiben sind. (Man kann sich die Regelbücher auch gerne etwas komplizierter denken, sodaß Zwischenergebnisse anfallen und Verweise zu anderen Regelbüchern zulässig sind). Wenn alles aufgeschrieben ist, muß das Papierstück durch den Output-Schlitz gesteckt werden.

Der Insasse des chinesischen Zimmers versteht natürlich kein Wort Chinesisch. Er braucht nicht einmal zu wissen, daß die Symbole, die er manipuliert, überhaupt chinesische Schriftzeichen sind.
Nun nehmen wir an, daß die empfangenen Inputs echte auf Chinesisch gestellte Fragen über einen bestimmten Gegenstandsbereich sind und die produzierten Outputs die angemessenen, ja als einsichtsvoll zu charakterisierenden Antworten darauf darstellen.   Für den draußen vor dem Zimmer stehenden Betrachter, der die Fragen gestellt hat, sollen die Antworten so gut ausfallen, daß er den Eindruck gewinnt, daß sie nur von einem Sprecher des Chinesischen stammen können.

Dieses Gedankenexperiment, so Searle,  beinhaltet  eine wirkungsvolle Widerlegung der Rolle des Turing-Tests.  Darüber hinaus glaubt Searle, daß sein chinesisches Zimmer eine wirkungsvolle Widerlegung der starken KI beinhaltet. Beiden Einstellungen wurde widersprochen. Ich gebe zwei Gegenargumente und verhehle nicht, daß sie mir wenig überzeugend erscheinen.

Die Systemantwort


"Es ist offensichtlich wahr, daß die Person, die im chinesischen Zimmer eingeschlossen ist, kein Chinesisch versteht. Tatsache ist jedoch, daß sie bloß ein Teil des Systems ist. Das ganze System versteht Chinesisch. Und dazu gehören die Regelbücher, Schmierzettel für Zwischenresultate, evt. Datenbanken etc.  Sprachverstehen wird nicht dem Individum zugeschrieben, sondern dem ganzen System, von dem das Individuum nur ein Teil ist." (aus Searle 1980)

Searles Erwiderung
"...Wir nehmen an, daß das Individuum alle Elemente des Systems verinnerlicht. Es hat die entsprechenden Anweisungen gelernt und kennt die Datenbanken mit den chinesischen Symbolen auswendig. Und es ist fähig, alle Berechnungen im Kopf auszuführen. Auf diese Weise sind die ursprünglich externen Komponenten vollständig "verinnerlicht" worden. Dennoch würde keiner sagen, daß die Person jetzt Chinesisch versteht, obwohl sie zu den richtigen Resultaten gelangt." (aus Searle 1980)

Die Roboter-Antwort

"Nehmen wir an, wir schreiben eine ganz andere Art von Programm . . . und wir setzen unseren Computer in einen Roboter, und dieser Computer nimmt nicht einfach formale Symbole als Input auf und gibt andere als Output aus, sondern dieser Computer arbeitet in einer Weise, die den Roboter befähigt, so etwas zu tun, daß große Ähnlichkeit hat mit Wahrnehmen, gezielt Gehen, oder was immer sonst.  Der Roboter könnte Fersehkameras haben, die ihm zu 'sehen' erlauben, Arme, Beine, die ihm erlauben, angemessen zu 'handeln'. All das wird von dem Computergehirn kontrolliert. Ein derartiger Computer würde wirklich verstehen und würde  mentale Zustände realisieren."  (aus Searle 1980)

Searles Erwiderung (gekürzt)
". . . the addition of such "perceptual" and "motor" capacities adds nothing by way of understanding, in particular, or intentionality, in general . . . the robot has no intentional states at all; it is simply moving about as a result of its electrical wiring and its program . . ."  (aus Searle 1980)


Literatur:

  • John Searle (1980): Minds, brains, and programs. Behavioral and Brain Sciences 3, 450-456.
  • John Searle (1996): Die Wiederentdeckung des Geistes. Suhrkamp
  • Alan Turing (1950): Computing Machinery and Intelligence. Mind 59, 433-460.

  •