Dennett: Intentionale Systeme

Gegen die Ichperspektive Searles plädiert Daniel C. Dennett für eine reine Beobachterperspektive (und bekennt sich damit in der Tat mehr oder weniger offen zu einem "Rest von Behaviorismus" in der Tradition von Ryle). 

Sein Grundbegriff ist das intentionale System, ein System 

"dessen Verhalten . . . erklärt und vorausgesagt werden kann, indem man ihm Meinungen und Wünsche (und Hoffnungen, Befürchtungen, Absichten, Ahnungen, . . . ) zuschreibt". 

Bei solchen Systemen sagt man ihr 

"Verhalten voraus, indem man dem System den Besitz gewisser Informationen zuschreibt, von ihm annimmt, daß es von gewissen Zielen geleitet wird, und sich dann auf der Grundlage dieser Zuschreibungen und Annahmen die vernünftigste und angemessenste Handlung überlegt". 

Seine Definition intentionaler Systeme sagt wohlgemerkt nicht, 

"daß intentionale Systeme wirklich Meinungen und Wünsche haben",

sondern er will nur behaupten, 

"daß ein rein physikalisches System gelegentlich so komplex und trotzdem so organisiert sein kann, daß wir es bequem, für Erklärungen ergiebig und für Voraussagen nützlich finden, es so zu behandeln, als hätte es Meinungen und Wünsche und wäre rational". 

Diese pragmatisch begründete intentionale Einstellung unterscheidet er von der bei der Voraussage über das Verhalten mechanischer Gegenstände üblichen und häufig auch bei Naturgegenständen verwendeten funktionalen Einstellung, die bedeutet, 

"daß wir unsere Voraussagen nur auf der Basis von Wissen oder Annahmen über die funktionale Konstruktion des Systems, unabhängig von der physikalischen Beschaffenheit oder dem inneren Zustand des einzelnen Gegenstandes, machen (Beispiele: Sowie der Wagen der Schreibmaschine sich dem Rand nähert, wird ein Klingelzeichen ertönen. Ein starker Beschnitt wird ein dichteres Blattwerk und stärkere Äste stimulieren") 

und diese wiederum von der physikalischen Einstellung (bei der sich unsere Voraussagen "auf den tatsächlichen physikalischen Zustand des einzelnen Gegenstandes" stützen). 

Ebenso, wie wir bei Funktionsstörungen gezwungen sind, die funktionale Einstellung zu verlassen und Voraussagen aus der physikalischen Einstellung vorzunehmen ("Wenn du den Schalter einstellst, wirst du einen gefährlichen Schlag erhalten", "Wenn die Schneefälle kommen, wird dieser Zweig abbrechen"), kann es nach Einnahme der intentionalen Einstellung auch passieren, "daß wir die Annahme der Rationalität fallenlassen" müssen und wir "schließlich bei Voraussagen in der funktionalen Einstellung" enden. 

Aber in vielen Fällen kann "sich die Taktik, die intentionale Einstellung einzunehmen," auszahlen, nämlich immer 

"dann, wenn wir Grund zu der Annahme haben, daß die Voraussetzung einer optimalen Konstruktion gerechtfertigt ist, und bezweifeln, daß Voraussagen in der funktionalen oder der physikalischen Einstellung praktikabel sind". 

Dennett erläutert das am Beispiel eines Schachcomputers:

"Man betrachte einen Schachcomputer und die verschiedenen Strategien oder Einstellungen, die man als sein Gegner einschlagen bzw. einnehmen kann, wenn man versucht, seine Gegenzüge vorauszusagen. [ . . . ] 

Den Versuch zu unternehmen, eine physikalische Erklärung oder Voraussage des Schachcomputers zu geben, wäre eine witzlose Herkulesarbeit, doch im Prinzip würde es gehen. [ . . . ] 

Die besten heutigen Schachcomputer sind für Voraussagen in funktionaler oder physikalischer Einstellung praktisch unzugänglich. Sie sind sogar für ihre eigenen Konstrukteure zu komplex geworden, um sie in funktionaler Einstellung zu betrachten. 

Die beste Aussicht f¨ur einen Menschen, eine solche Maschine in einem Schachspiel zu schlagen, besteht darin, ihre Gegenzüge dadurch vorauszusagen, daß er sich, so gut er kann, überlegt, welches unter den gegebenen Regeln und Zielen des Schachspiels der beste und vernünftigste Zug wäre [ . . . ], wenn man sie eher wie einen intelligenten menschlichen Gegner behandelt. [ . . . ] 

Entwickelt man eine Voraussage dieser Art, so stellt man folgende Frage: Was ist das Vernünftigste, was der Computer machen kann, wenn die Ziele x, y, z, . . . , die Beschränkungen a, b, c, . . . , und die Information (gegebenenfalls einschließlich Fehlinformation) p, q, r, . . . , über die momentane Sachlage gegeben sind? [ . . . ]

 Verbleibende Zweifel, ob der Schachcomputer wirklich Meinungen und Wünsche hat, sind unangebracht. Denn die Definition intentionaler Systeme, die ich gegeben habe, sagt nicht, daß intentionale Systeme wirklich Meinungen und Wünsche haben, sondern daß man ihr Verhalten erklären und voraussagen kann, indem man ihnen Meinungen und Wünsche zuschreibt; und ob man das, was man dem Computer zuschreibt, Meinungen, Meinungsanaloga, Informationskomplexe oder intentionale Sonstwas nennt, macht für die Art der Überlegung, die man auf der Grundlage der Zuschreibungen anstellt, keinen Unterschied. [ . . . ] 

Wir behandeln diese Computer durchaus erfolgreich als intentionale Systeme, und wir tun dies unabhängig von allen Überlegungen über die Materie, aus der sie bestehen, über ihre Herkunft, über die Stellung, die sie in der Gemeinschaft moralisch Handelnder haben oder nicht haben, über ihr Bewußtsein oder Selbstbewußtsein oder über die Determiniertheit oder Indeterminiertheit ihrer Operationen.

Die Entscheidung, diese Strategie einzuschlagen, ist pragmatisch und nicht in sich richtig oder falsch. Man kann sich immer weigern, die intentionale Einstellung gegenüber dem Computer einzunehmen, und seine Schachmatts akzeptieren".

Dennett teilt mit den Behavioristen die Ansicht, daß eine "intentionale Theorie als Psychologie leer [ist], weil sie Rationalität oder Intelligenz voraussetzt und nicht erklärt", daß somit "Intentionalität keine Grundlage der Psychologie sein kann" und man statt dessen "nach rein mechanistischen Regularitäten in den Aktivitäten [der] Subjekte Ausschau" halten muß. 

Doch gibt es für ihn "wenig Grund für die Annahme, daß die Regularitäten auf der Oberfläche, im groben Verhalten liegen werden – es sei denn, wir legen den intentionalen Regularitäten eine künstliche Zwangsjacke an." 

Anders als für die Behavioristen kann für ihn bei intentionalen Systemen – seien es nun Tiere, Menschen, Computer oder fremde Wesen – die Annahme intentionaler Zustände und verborgener kleiner Männer durchaus zu gehaltvollen Voraussage- und Erklärungsweisen des Verhaltens führen, wenn man darauf achtet, "wo sich die Theorie bezüglich der Aufgabe, Intelligenz zu erklären, in den roten Zahlen befindet", und wenn man bereit ist, diese Schuld durch die funktionale und physikalische Einstellung zu tilgen:

"Dieser Übergang von intentionalen Erklärungen und Voraussagen zu zuverlässigeren Erklärungen und Voraussagen in der funktionalen Einstellung . . . ist . . . die Richtung, die der Theoretiker einschlagen sollte, wann immer es möglich ist. Schließlich wollen wir in der Lage sein, die Intelligenz von Menschen oder Tieren durch die Konstruktion dieser Wesen zu erklären und diese wiederum durch die natürliche Auslese dieser Konstruktion. 

Wir haben also, wann immer wir bei unseren Erklärungen auf der intentionalen Ebene stehen bleiben, einen ungeklärten Fall von Intelligenz oder Rationalität übriggelassen. [ . . . ] Jedesmal, wenn ein Theoretiker ein Ereignis, einen Zustand oder eine Struktur usw. in einem System (z. B. im Gehirn des Organismus) ein Signal, eine Botschaft oder einen Befehl nennt oder auf eine ander[e] Weise mit einem Inhalt ausstattet, nimmt er eine Intelligenz-Anleihe auf. 

Mit seinen Signalen, Botschaften oder Befehlen postuliert er implizit etwas, das die Signale lesen, das die  Botschaften verstehen oder das befehlen kann. Andernfalls werden seine Signale nutzlos sein, sie werden unvernommen und unverstanden verhallen. 

Diese Anleihe muß man schließlich zurückzahlen, indem man herausfindet, was liest oder versteht und es weganalysiert. Denn gelingt das nicht, wird die Theorie unanalysierte Menschen-Analoga unter ihren Elementen haben, die mit genügend Intelligenz ausgestattet sind, um die Signale zu lesen usw., und sie wird somit die Beantwortung der Hauptfrage verschieben: Wodurch kann man Intelligenz erklären? [ . . . ] 

Unsere vielversprechendste Taktik bei der Suche nach Wissen über die innere Konstruktion besteht darin, Intelligenz- Anleihen aufzunehmen, periphere und innere Ereignisse mit Inhalt auszustatten und dann nach den Mechanismen Ausschau zu halten, die mit solchen ,Botschaften‘ angemessen funktionieren, so daß wir die Anleihen zurückzahlen können.

Diese Taktik ist eigentlich auch nicht unerprobt. Die Forschung auf dem Gebiet der künstlichen Intelligenz, welche unter anderem den Schachcomputer hervorbrachte, geht so vor, daß sie für ein intentional charakterisiertes Problem (wie bringt man den Computer dazu, die richtige Art von Information zu prüfen, die richtige Entscheidung zu treffen) eine Lösung in der funktionalen Einstellung erarbeitet – eine Annäherung an eine optimale Konstruktion".

Für Dennett dient der Begriff eines intentionalen Systems dazu, 

"eine Brücke zu bilden, die den Bereich des Intentionalen (welcher die Welt unseres gesunden Menschenverstandes, die Welt von Personen und Handlungen, die Spieltheorie und die ,neuralen Zeichen‘ des Biologen umfaßt) mit dem nicht-intentionalen Bereich der Naturwissenschaften verbindet".

Dennett ist nicht so sehr interessiert an einer "philosophischen" Theorie des Geistes, das Denken ist für ihn eine Spielart intelligenten Verhaltens, und seine Theorie intentionaler Systeme ist zu verstehen als eine Strategie zur besseren Erklärung, Voraussage und Kontrolle dieses Verhaltens, als Strategie für eine naturwissenschaftliche Psychologie, als eine Fortentwicklung des Behaviorismus mit neuen, besseren Mitteln. 

Dabei hat für ihn die KI eine ausgezeichnete Stellung in dem Projekt, diese Brücke wirklich zu bauen und tragfähig zu machen, indem der Homunkulus, der "kleine Mann" erst durch viele noch kleinere Männer und dann durch einfache Schalter ersetzt wird. An anderer Stelle schreibt er:

"Kriegt man ein Team oder ein Komitee vergleichsweise unwissender, engstirniger, blinder Homunculi dazu, das intelligente Verhalten des Ganzen zu erzeugen, ist dies Fortschritt . . . Schließlich . . . hat man dann Homunculi, die so dumm sind (sie brauchen sich nur noch zu erinnern, ob sie ja oder nein sagen müssen, wenn sie gefragt werden), daß sie, wie man sagt, "durch eine Maschine ersetzt" werden können. Man entläßt pfiffige Homunculi aus seinem Schema, indem man zur Erledigung der Arbeit solche Idiotenarmeen organisiert".

Das Problem, ob Computer "wirklich" intentionale Zustände wie Glauben und Wünsche haben, ob sie "wirklich" denken und verstehen können, stellt sich dabei für Dennett gar nicht. 

Seine Position ist instrumentalistisch, die Zuschreibung intentionaler Zustände impliziert nicht, daß sie real existieren, und zwar auch nicht – und das ist seine Pointe (und das unterscheidet ihn von Searle und Fodor) – bei uns Menschen. Er stimmt Searle zu, daß Computer bloß syntaktische und nicht semantische Maschinen sind, aber, so Dennett, wir – als Produkte eines blinden und "mechanischen" Evolutionsprozesses, als " Überlebensmaschinen unserer Gene" (Richard Dawkins) – sind es (auf der subpersonalen Ebene) auch; eine Unterscheidung zwischen ursprünglicher und abgeleiteter Intentionalität macht für ihn keinen guten Sinn:

"As a late and specialized product, a triumph of Mother Nature’s high tech, our intentionality is highly derived, and in just the same way that the intentionality of our robots (and even our books and maps) is derived. 

A shopping list in the head has no more intrinsic intentionality than a shopping list on a piece of paper. What the items on the list mean (if anything) is fixed by the role they play in the larger scheme of purposes. 

We may call our own intentionality real, but we must recognize that it is derived from the intentionality of natural selection, which is just as real – but just less easily discerned because of the vast di erence in time scale and size. 

So if there is to be any original intentionality – original just in the sense of being derived from no other, ulterior source – the intentionality of natural selection deserves the honor".

Wie Searle beklagt auch Dennett, daß in der zeitgenössischen Philosophie des Geistes so wenig das Bewußtsein thematisiert wird. Aber anders als für Searle ist es für ihn nicht das grundlegende Phänomen; seine Strategie ist vielmehr, 

"zuerst einen Ansatz für den Inhalt zu entwickeln, der unabhängig vom Bewußtsein und grundlegender als dieses ist – wobei in gleicherWeise alle unbewußten Inhaltsfixierungen (in Gehirnen, in Computern, in der ,Erkenntnis‘ von Eigenschaften selektierter Baupläne durch die Evolution) behandelt werden – und dann das Bewußtsein auf dieser Grundlage zu erklären". 

Diese Strategie ist eine Fortsetzung der Behandlung intentionaler Inhalte: das Bewußtsein zuerst von einem intentionalen Dritte-Person-Standpunkt ("heterophänomenologisch") untersuchen, dann funktional rekonstruieren und schließlich (irgendwann) neurobiologisch erklären. 

Nach seinem Modell "werden alle Arten von Wahrnehmung – tatsächlich auch alle Formen des Denkens und der mentalen Aktivität – im Gehirn durch parallele, vielstufige Prozesse der Interpretation und Elaboration von Sinnesdaten vollzogen", es "existieren vielfältige Kanäle, in denen spezialisierte Kreise, in paralleler Pandämonie, unterschiedliche Dinge zu tun versuchen, vielfältige Konzepte erzeugen", "Konzepte von Erzählfragmenten in unterschiedlichen Stadien der Bearbeitung und an unterschiedlichen Orten des Gehirns." 

Der uns durch Introspektion zugängliche kontinuierliche, serielle Bewußtseinsstrom (die "Joyce-Maschine") ist ein spätes, hauptsächlich durch kulturelle Evolution (Sprache, kulturelle "Meme" und Bilder) entstandenes Produkt, ein "Komplex von Operationen einer virtuellen Maschine", eine Art Software: 

"Ein bewußter menschlicher Geist ist mehr oder weniger eine seriale virtuelle Maschine, die – ineffizient – an der parallelen Hardware montiert ist, die die Evolution uns geliefert hat" 

(etwa so, wie mein Textverarbeitungsprogramm eine virtuelle Maschine bezüglich meines Computers ist; die Von-Neumann- Maschine als Prototyp des programmierbaren Computers wurde nach Dennett in Analogie zu der virtuellen Maschine unseres Bewußtseins entwickelt). 

Das "Ich" ist dann eine nützliche Abstraktion, ein "narratives Gravitationszentrum", aber keinesfalls eine zentrale Steuerungseinheit ("Pandämonium" statt "cartesianisches Theater"). 

Eingeräumt wird dabei von Dennett das 

"Fehlen eines Rechenmodells, das zeigen könnte, was die Maschine tut und wie. Wir befinden uns hier nach wie vor in einem metaphorischen Stadium". 

Nach meinem Eindruck trifft die pragmatisch und naturalistisch begründete intentionale (und dann funktionale und physikalische) Einstellung von Dennett viel besser das Selbstverständnis und die "Philosophie" der KI als Fodors Funktionalismus mit seinen recht anspruchsvollen Implikationen und einzulösenden theoretischen Lasten (eine gewisse theoretische Beliebigkeit ist nicht nur Kennzeichen der technischen, sondern auch der kognitiven KI; was zählt, ist der Erfolg, und dabei sind auch andere Ansätze recht als die Theorie der "Sprache des Geistes"). 

Philosophisch, aber auch aus der Sicht eines an der Lebenswelt orientierten Common sense, bleiben die in diesem Abschnitt angebotenen Bemühungen um eine "Lösung" der Rätsel und Probleme von Verstehen, Intentionalität und Bewußtsein allerdings unbefriedigend. 

Zu deren Verstehen und Erklären gehört neben der zwischenzeitlich verpönten Ichperspektive der Bewußtseinsphilosophie (Verhältnis Ich – Es) und der in der KI bevorzugten Objektivierung des Subjektiven (Verhältnis Du – Es) auch die Perspektive des Intersubjektiven (Verhältnis Ich – Du), die (auch leibhaftige) Teilnahme an einer gemeinsamen Lebenspraxis und Kommunikation mit der gegenseitigen Anerkennung als bedürftige und moralisch verantwortliche Personen (und das nicht nur, um im Dreieck Ich, Du, Es eine Lücke zu schließen, sondern auch als übergeordnete Klammer für die ganze Figur). 

In diesem Rahmen erfordert die Antwort auf die Frage, ob wir Computern die Fähigkeit zum Denken und Verstehen, zu Intentionalität und Bewußtsein, zusprechen können und sollen, eine Entscheidung, die durch den empirischen Aufweis der Möglichkeiten oder des Scheiterns technischer Konstrukte zwar beeinflußt, nicht aber ersetzt werden kann (das zeigte schon Kant bei seiner Behandlung der Antinomie zwischen der "Kausalität durch Freiheit" und der "Kausalität nach Gesetzen der Natur").