Searle: Ursprüngliche Intentionalität
So hat auch John R. Searle geantwortet auf die entsprechenden Fragen im Rahmen seines mittlerweile berühmt gewordenen Gedankenexperiments (Chinese room):
er sitzt in einem Raum, in den durch einen Schlitz Karten mit irgendwelchen für ihn bedeutungslosen Schnörkeln (chinesische Schriftzeichen, aber das weiß er nicht, er versteht kein Chinesisch) hineingereicht werden. Er hat ein Buch zur Verfügung, geschrieben in seiner Muttersprache, mit Regeln der Art: wenn Dir die und die Schnörkel (die er nur an ihrer Form identifizieren kann) hineingereicht werden, reiche die und die Schnörkel heraus.
Wenn das Regelbuch gut genug ist, so Searle, kann für einen außenstehenden chinesischen Muttersprachler der Eindruck einer sinnvollen Kommunikation auf Chinesisch entstehen, obwohl er kein Wort Chinesisch versteht und nur nach rein formalen Regeln Symbole manipuliert hat.
Searle hat mit seinem Gedankenexperiment aus der Innenperspektive des Turing-Testes den Nerv der KI getroffen (und so wurde auch reagiert), denn die beiden Antworten führen zu dem Schluß, daß eine Maschine den Turing-Test bestehen kann, ohne wirklich zu verstehen und somit auch ohne wirklich zu denken.
Er richtet sich nicht gegen die Strömung innerhalb der KI, die er "schwache KI" nennt (nach ihr "liegt die Bedeutung des Computers für die Erforschung des Geistes vor allem darin, daß er ein außerordentlich leistungsfähiges Werkzeug ist").
Sein Angriff zielt auf die These der "starken KI", daß
"der entsprechend programmierte Computer tatsächlich ein Geist in dem Sinne [ist], daß von Computern mit den richtigen Programmen im wörtlichen Sinne gesagt werden kann, daß sie verstehen und andere kognitive Zustände haben".
Denn solange
"das Programm mit Hilfe computationaler Operationen über rein formal definierte Elemente definiert ist, legt das Gedankenexperiment nahe, daß dies an sich in keiner interessanten Beziehung zum Verstehen steht. Sie sind sicherlich keine hinreichenden Bedingungen, und es wurde nicht der geringste Grund für die Annahme genannt, daß sie notwendige Bedingungen seien oder sogar einen entscheidenden Beitrag zum Verstehen leisten sollten".
Denn das
"Computerprogramm ist rein syntaktisch definiert. Aber Denken ist mehr als bloß ein Manipulieren bedeutungsloser Symbole; zum Denken gehört semantischer Gehalt mit einer Bedeutung. [ . . . ] Syntax reicht nicht für Semantik aus".
Man kann seine Schlußfolgerung bestreiten (und das wird vor allen von KI-Seite heftig getan), indem man Searles Gedankenexperiment als zu stark vereinfacht ablehnt und mindestens eine der oben genannten beiden Fragen anders beantwortet:
Dadurch, daß der Turing-Test beliebige Gesprächsthemen erlaubt und insofern von einer sehr großen Allgemeinheit ist, ist es so gut wie ausgeschlossen, daß ein in jedem Detail vorprogrammierter Computer, eine Ready-made-Intelligenz vom Typ CUGAF, den Test bestehen kann (schon so einfache Fragen wie z.B. "Wie war denn das Wetter heute morgen, als du aufgestanden bist?" bereiten dann große Probleme). Nötig wäre ein durch Wahrnehmung und Handeln lernender Computer vom Typ LESUCUGAF, und der wäre dann durch eigene kausale Verbindungen zur Umwelt nicht mehr bloß syntaktisch, sondern auch semantisch ("Robotereinwand").
Zweitens, auch wenn man bei dem Konzept keiner weiteren In- und Outputs außer Sprache bleibt, wird nicht behauptet, daß der isolierte Symbolmanipulateur Chinesisch versteht (sowenig, wie man das von der CPU behaupten würde), sondern nur zusammen mit den Regeln; und dabei ist die Vorstellung von ein paar Zetteln und einem überschaubaren Regelbuch viel zu simpel. In Wirklichkeit bräuchte man sehr viele Regeln und eine sehr große Zahl von Sprachebenen (auch Sie mußten ja beim CUGAF die Regeln in Ihrer Sprache lesen, sie in eine Programmiersprache übersetzen, die vom Compiler in Prozessorbefehle umgesetzt wurde, die das Verteilungsmuster in den Speicherplätzen änderten . . . ), Subroutinen und rekursiven Prozeduren, hierarchisch geordnet und dennoch mit der Möglichkeit der wechselseitigen Modifizierung. Kurz, es wäre ein System von sehr hoher Komplexität nötig; wenn das gelingt und es kommen bei der Eingabe vernünftiger Sätze als Antwort wieder vernünftige Sätze, dann könne man zu Recht sagen, das System als Ganzes versteht die Sprache ("Systemeinwand").
Searle läßt diese Einwände nicht gelten. Auch bei sehr komplexen Programmen und bei Robotern werden "letztlich" bloß nach rein formalen, syntaktischen Regeln Symbole manipuliert , und daran ändert sich auch bei künftigen Entwicklungen nichts, solange gemäß der Analogie
"der Geist verhält sich zum Gehirn wie das Programm zur Hardware"
von der physikalischen Realisierung des Programms abgesehen wird (auch sogenannte neuronale Netze werden meist auf Digitalcomputern simuliert).
Für ihn wird Geist und Denken vom Gehirn verursacht, als biologisches Phänomen wie die Photosynthese. Was unterscheidet uns dann aber einerseits von Schachtelhalmen und andererseits von programmierten Computern?
Seine Antwort: ursprüngliche (intrinsic) Intentionalität. Intentionalität (Gerichtetsein) – neben Bewußtsein, Subjektivität und geistiger Verursachung eines der Merkmale geistiger Phänomene, die "das Körper/Geist-Problem wirklich schwierig" machen – ist ein auf Brentano zurückgehendes Konzept, Mentales, Psychisches vor dem bloß Physischen auszuzeichnen (und steht damit in Konkurrenz zum Bewußtseinskonzept nach Descartes).
Mentale Akte und Zustände wie Wahrnehmen, Erinnern, Glauben, Wünschen und Befürchten sind – anders als Planetenbewegungen und natürliche Kristallstrukturen – auf etwas (Objekte oder Sachverhalte) gerichtet, handeln von etwas: das Denken kann "nach außen greifen und das Äußere erfassen".
Intentionalität und Verstehen stehen im engen Zusammenhang und sind aufeinander bezogen. Verstehen (im Sinne von: im Gehörten und Geschriebenen das Gemeinte erkennen) zielt auf die Bedeutung und die kommunikative Absicht. Andererseits kann es auch der Inhalt eines Wunsches sein, jemandem etwas (z. B. auch die eigenen intentionalen Zustände) zu verstehen geben zu wollen, und dafür ist auch beim anderen Intentionalität nötig (und mein Wissen davon).
Zum Verstehen gehört auch Wahrheit und Erfolg, Verstehen und Verstandenwerden setzt ein Mindestmaß an Kooperation, Klarheit und Aufrichtigkeit voraus. Kurz: Intentionalität und Verstehen sind untrennbar miteinander verbunden und mit einem ganzen Bündel von semantischen, pragmatischen und normativen Aspekten ("die wirklichen Tatsachen der Intentionalität enthalten normative Bestandteile; bei funktionalen Erklärungen gibt es hingegen keine Tatsachen außer den nackten physischen Fakten; und Normen gibt es nur in uns und nur von unserem Standpunkt aus").
Die üblichen Mittel für das Zuverstehengeben sind sprachliche und außersprachliche Zeichen und Symbole. Dazu müssen sie als Zeichen und Symbole erkannt und richtig interpretiert, gemäß ihrer Bedeutung verstanden werden. Der Lage von Steinen am Wegesrand messen wir normalerweise keine Bedeutung zu, ganz anders ist das bei einer Schnitzeljagd. Aber, und genau so ist es auch bei Schallwellen und Pigmentverteilungen auf dem Papier, die Steine haben dann nicht von sich aus eine Bedeutung, wir haben sie ihnen verliehen; und das ist bei unseren intentionalen Zuständen ganz anders:
"Weil Sätze – die Geräusche, die aus dem Mund kommen, oder die Schriftzeichen, die auf dem Papier stehen – in einer Hinsicht bloß Gegenstände in der Welt sind wie alle anderen Gegenstände, ist ihr Repräsentationsvermögen nicht intrinsisch, sondern von der Intentionalität des Geistes hergeleitet. Die Intentionalität von Geisteszuständen hingegen ist von keinen vorgängigen Formen der Intentionalität hergeleitet, vielmehr ist sie eine intrinsische Eigenschaft dieser Zustände selbst. Jemand benutzt einen Satz, um eine Feststellung zu machen oder eine Frage zu stellen; in dieser Weise benutzt er seine Überzeugungen und Wünsche allerdings nicht: er hat sie einfach".
Diesen Unterschied zwischen ursprünglicher und verliehener Intentionalität zu ignorieren, ist nach Searle der Hauptfehler des Funktionalismus und der "starken KI".
"Bei den Gehirnfunktionen sind nicht die formalen Schatten relevant, die durch die Synapsenfolge geworfen werden, sondern die wirklichen Eigenschaften der Folgen. All die Argumente für die starke Version der KI, die ich gehört habe, bestehen darauf, die Umrisse der Schatten nachzuzeichnen, die von den Kognitionen geworfen werden, und danach zu behaupten, diese Schatten seien das wirkliche Ding. [ . . . ] Intentionalität, wie sie Computer zu haben scheinen, gibt es nur im Geiste derer, die sie programmieren, und derer, die sie gebrauchen, derer, die ihnen die Inputs geben und die die Outputs interpretieren".
Inzwischen geht Searle noch einen Schritt weiter. Er bestreitet nicht nur, daß Computer im Wortsinne Intentionalität haben und verstehen können (These der "starken KI"), er argumentiert auch dafür, daß die im Rahmen der Kognitionswissenschaften gestellte Frage "Ist das Hirn ein digitaler Computer?" schlecht definiert ist und keinen klaren Sinn hat:
"Legt man die Standard-Lehrbuchdefinition von Computation zugrunde, so fällt es schwer, zu sehen, wie sich die folgenden Resultate vermeiden lassen:
1. Für jeden Gegenstand gibt es irgendeine Beschreibung der Art, daß der Gegenstand unter dieser Beschreibung ein digitaler Computer ist.
2. Für jedes Programm und jeden hinreichend komplexen Gegenstand gibt es irgendeine Beschreibung, unter welcher der Gegenstand das Programm implementiert. So implementiert jetzt in diesem Moment zum Beispiel die Wand hinter meinem Rücken das "Wordstar"-Programm, weil es innerhalb der besagten Wand irgendein Muster von Molekülbewegungen gibt, das mit der formalen Struktur des "Wordstar"-Programms isomorph ist. Wenn aber die Wand diese Programm implementiert, dann implementiert sie – vorausgesetzt, sie ist nicht zu klein – jedes beliebige Programm (auch jedes im Hirn implementierte Programm). [ . . . ]
Die Vielfach-Realisierbarkeit computional äquivalenter Vorgänge in unterschiedlichen physischen Medien ist nicht bloß ein Zeichen dafür, daß diese Vorgänge abstrakt sind, sondern auch dafür, daß sie gar nicht dem System an sich angehören: sie sind dem System nicht intrinsisch; sie hängen von einer Interpretation ab, die von außen an sie herangetragen wird. [ . . . ] Computionale Zustände werden nicht in der physischen Beschaffenheit entdeckt, sie werden ihr zugeordnet. Das ist eine andere Argumentation als die mit dem Chinesisch-Zimmer, und ich hätte das schon vor zehn Jahren sehen sollen, ich habe es aber nicht. Die Argumentation mit dem Chinesisch-Zimmer hat gezeigt, daß die Semantik der Syntax nicht intrinsisch ist. Hier weise ich nun darauf hin – und das ist etwas Anderes und Separates –, daß die Syntax der Physik nicht intrinsisch ist.
Zum Zwecke der ursprünglichen Argumentation hatte ich einfach angenommen, die syntaktische Charakterisierung des Computers sei unproblematisch. Doch das ist ein Fehler. Es gibt keine Möglichkeit zu entdecken, daß ein System intrinsischermaßen ein digitaler Computer ist, weil die Charakterisierung des Systems als einem digitalen Computer immer relativ zu einem Beobachter ist, der den rein physischen Merkmalen des Systems eine syntaktische Interpretation zuordnet.
Wendet man dies auf die Hypothese von der Sprache des Geistes an, dann hat es zur Konsequenz, daß diese Hypothese inkohärent ist. Es gibt keine Möglichkeit zu entdecken, daß unbekannte Sätze intrinsischermaßen im Kopf sind, weil etwas ein Satz nur relativ dazu ist, daß irgendeine Person oder irgendein Benutzer existiert, die oder der es als Satz verwendet".
Als Gründe für diese Fehler – unzureichende Unterscheidung zwischen intrinsischer und abgeleiteter Intentionalität (und damit Semantik), Übersehen der Beobachterrelativität von Syntax – sieht er vor allem eine irreführende Verwendung des Begriffes der "Informationsverarbeitung" und trotz gegenteiliger Beteuerungen einen Rest von Behaviorismus sowie eine Form des Dualismus, der cartesianisch ist in dem Sinne,
"daß das, was das spezifisch Mentale des Geistes ist, keine innere Verbindung mit den wirklichen Eigenschaften des Gehirns hat".
Wie die Beispiele Kopernikus, Galilei und Darwin zeigten,
"wurden wissenschaftliche Errungenschaften im Westen, die zeigten, daß die Menschheit lediglich ein Teil der gewöhnlichen physikalischen und biologischen Ordnung ist, oft von der Nachhut einer veralteten Weltanschauung bekämpft".
[ . . . ] Am besten versteht man die starke KI als eine der letzten Ausprägungen dieser antiwissenschaftlichen Tradition, da sie leugnet, daß dem menschlichen Geist irgend etwas essentiell Physikalisches und Biologisches anhaftet:
"Niemand wird annehmen, daß die Computersimulation eines Feuerarlarms die ganze Nachbarschaft niederbrennen oder daß die Computersimulation eines Regenschauers uns völlig durchnäßt zurücklassen wird.
Warum sollte man dann aber annehmen, daß eine Computersimulation des Verstehens wirklich etwas versteht? [ . . . ]
Was Intentionalität auch immer sein mag, sie ist ein biologisches Phänomen, und es ist wahrscheinlich, daß sie von der spezifischen Biochemie ihres Ursprungsstoffes genauso kausal abhängig ist, wie die Milcherzeugung, die Photosynthese oder irgendwelche anderen biologischen Phänomene. Niemand wird annehmen, daß man Milch oder Zucker erzeugen könnte, indem man eine Computersimulation der formalen Abläufe durchführt, die sich bei der Milcherzeugung und der Photosynthese finden.
Wenn es aber um den Geist geht, dann wollen viele Leute, motiviert durch ihren tief- und festsitzenden Dualismus, an ein solches Mysterium glauben: sie nehmen an, der Geist sei eine Sache formaler Prozesse und er sei, anders als Milch und Zucker, unabhängig von bestimmten stofflichen Ursachen".
Allerdings hat Searle hier ein ernstes Problem: wie der "Ursprungsstoff" das macht, weiß er selbstverständlich ebensowenig zu sagen wie sonst jemand:
"Wenn es uns gelingt,die Rolle des Hirns bei der Hervorbringung von Intentionalität zu verstehen, so wird uns dies wahrscheinlich mit Hilfe von Prinzipien gelingen, die sich vollkommen von den zur Zeit benutzten unterscheiden; der Unterschied wird so groß sein, wie der zwischen den Prinzipien der Quantenmechanik und denen der Newtonschen Mechanik".
Searle plädiert ungeachtet dieser Schwierigkeiten offensiv für einen "biologischen Naturalismus":
"Geistige Ereignisse und Vorgänge gehören genauso zu unserer biologischen Naturgeschichte wie Verdauung, Mitose, Meiose oder Enzymsekretion".
Er wendet sich damit nicht nur gegen die "starke KI", sondern auch gegen den "Kognitivismus", gegen eine am "Computermodell des Geistes" orientierte Kognitionswissenschaft, Linguistik und Psychologie mit einer eigenständigen, nicht reduzierbaren Untersuchungsebene zwischen der Neurophysiologie und unserem bewußten Erleben.
Für eine solche Ebene, auf der "irgendwelche Rechnungen unbewußt angestellt werden", gibt es für ihn weder einen guten Grund noch einen empirisch überprüfbaren Sinn; es braucht keinen "Lückenfüller", denn "es gibt da gar keine Lücke, die zu füllen wäre":
"Das Gehirn macht es einfach so. Wir sind neurophysiologisch so gebaut, daß der Ansturm von Photonen auf unsere Photorezeptoren uns sehen läßt; und wir sind neurophysiologisch so gebaut, daß, wenn wir Leute reden hören und mit ihnen interagieren, wir dadurch die Sprache lernen." "Es gibt einfach nur einen Hardware-Mechanismus, der so-und-so funktioniert, aber nicht anders".
In diesem Zusammenhang widerspricht Searle auch dem in den Kognitionswissenschaften vorherrschenden "Bemühen um eine Abtrennung des Bewußtseins von der Intentionalität." Das Motiv für diese Abtrennung sieht er darin,
"daß wir nicht wissen, wie das Bewußtsein zu erklären ist, und daß wir gerne eine Theorie des Geistes hätten, die nicht dadurch in Mißkredit gebracht wird, daß ihr eine Theorie des Bewußtseins fehlt. Die Idee ist, Intentionalität ,objektiv‘ zu behandeln, sie so zu behandeln, als seien die subjektiven Bewußtseinsmerkmale eigentlich nicht wichtig für Intentionalität".
Gegen die von den am "Computermodell des Geistes" orientierten Strömungen in der Philosophie, Linguistik und Psychologie postulierten – dem Bewußtsein prinzipiell nicht zugänglichen – informationsverarbeitenden, syntaktischen "Rechenprozesse" setzt er die These:
"Nur ein Lebewesen, das bewußte intentionale Zustände haben könnte, könnte überhaupt intentionale Zustände haben, und jeder unbewußte intentionale Zustand ist zumindest potentiell bewußt".
Bewußtsein (und Subjektivität) ist damit für ihn das zentrale geistige Phänomen:
"Die Vernachlässigung des Bewußtseins ist mehr als alles andere schuld an der Dürre und Sterilität in der Psychologie, in der Philosophie des Geistes und in der Kognitionswissenschaft. Die Erforschung des Geistes ist die Erforschung des Bewußtseins, und zwar in ziemlich demselben Sinn, in dem die Biologie die Erforschung des Lebens ist".