Der Chinese Room: Informationsanlage ohne Verstehen
Searle beschreibt 1980 einen geschlossenen Raum, in dem ein Mensch sitzt, der kein Chinesisch versteht. Durch einen Schlitz werden ihm Zettel mit chinesischen Geschichten und Fragen zugesteckt. Er versteht weder die einzelnen Zeichen noch die Geschichte als Ganze.
Im Raum liegt jedoch ein umfassendes Regelwerk in seiner Muttersprache. Dieses gibt ihm Schritt für Schritt vor, wie er die fremden Zeichen rein nach ihrem Aussehen sortieren, vergleichen und zu neuen Zeichenketten zusammensetzen soll. Das Handbuch ist dabei hypothetisch so umfassend, dass es für jede mögliche Frage die passende Zeichenfolge bereitstellt. Praktisch wäre ein solches Regelwerk für einen Menschen unbenutzbar — aber genau darin liegt die Pointe: Es geht nicht um eine realistische Technik, sondern um die Vorstellung, dass reine Symbolmanipulation ausreicht, um nach aussen wie «Verstehen» zu wirken.
Für den chinesischen Muttersprachler vor der Tür entsteht so der Eindruck, im Raum sitze ein kompetenter Gesprächspartner, der die Geschichte verstanden hat. In Wahrheit aber geschieht nichts als Symbolschieberei. Der Mensch im Raum ist eine Kommunikationsanlage: Information (Frage) kommt herein, Information (Antwort) geht hinaus — ohne dass Bedeutung entsteht.
Das chinesische Zimmer aus der Sicht der Semiotik: «Aliquid stat pro aliquo!»
Umberto Eco definierte Semiotik als die Untersuchung aller kulturellen Vorgänge als Kommunikationsprozesse. Die Scholastiker wussten schon: Alles, was als Zeichen wahrnehmbar ist, «steht für etwas anderes» — aliquid stat pro aliquo.
Damit Kommunikation und damit auch Verstehen entstehen, braucht es jedoch mehr als ein formales Austauschschema für Codes. Ein Zeichen muss nicht nur erkannt, sondern auch interpretiert werden. Charles Sanders Peirce bringt dies in seiner Formel auf den Punkt:
S = R (M, O, I)
S (Sema) = Das Zeichen als Erkenntnis.
R (Repräsentamen) = Das Zeichen als Stellvertreter.
M (Medium): die wahrnehmbare Gestalt, z. B. das Schriftzeichen.
O (Objekt): das, wofür das Zeichen steht.
I (Interpretant): die Wirkung, die das Zeichen im Bewusstsein des Interpreten auslöst.
Im Chinese Room fehlt der Interpretant, also das, was das wahrgenommene Zeichen beim Interpreten wachruft. Das Regelwerk funktioniert zwar durch die Verbindung von Medium und Objekt — was man Semantik nennt —, doch ohne den interpretierenden Geist geschieht kein kultureller Vorgang, kein Kommunikationsprozess. Nur reine Transmission. Oder, um es mit Goethe zu sagen: «Es hört doch jeder nur, was er versteht.»
Kant: Warum Maschinen nicht erfahren können
Peirce’ Theorie steht auf dem Fundament Kants. Für Kant bleibt das «Ding an sich» unerkennbar, da es transzendentalen Charakter hat und jenseits unserer Wahrnehmungsgrenze liegt; erfahrbar ist nur, was der menschliche Erkenntnisapparat strukturieren kann. Wahrnehmung wird erst durch Kategorien wie Raum, Zeit oder Kausalität zur Erfahrung.
Diese empirische Realität fehlt KI vollends — weil sie keine Realität kennt. Sie kennt nur das, was wir ihr aus unserer Realität zur Verarbeitung überlassen. Maschinen haben keinen kantischen Erkenntnisapparat — sie sind ein Apparat.
Sie kennen nicht das Zusammenspiel der phänomenologischen Kategorien der Erstheit (das unmittelbare Erleben), der Zweitheit (das In-Beziehung-Setzen zu Bekanntem) und der Drittheit (die Einbettung in Konvention und Gesetzmässigkeit). KI-Systeme operieren in vorgegebenen Denotationssystemen — sie erfahren nichts, sie haben keine Sinne und keine Sinnlichkeit. Für den Menschen hingegen gilt: «Omnis mundi creatura quasi liber et pictura» — alle Wesenheiten der Welt sind uns Buch und Bild.
Der Mensch ist fähig, in der Ästhetik den signifikanten Charakter eines Zeichens zu unterscheiden, in der Semantik dessen Darstellungsweise zu erkennen und in der Pragmatik dessen Wirkung auf den Wahrnehmenden zu reflektieren. KI kann nur die ersten beiden — und das auf immer und ewig.
Harari und die Gefahr der Täuschung
Yuval Noah Harari warnt vor einem anderen Aspekt: Wenn KI uns imitiert, sind wir versucht, ihr Menschlichkeit zuzuschreiben. Der Turing-Test zeigt, wie leicht wir eine Maschine für denkend halten, sobald sie uns im Dialog nicht unterscheidbar erscheint.
Hier liegt die Gefahr: Der Mensch projiziert Interpretantenfähigkeit in ein System, das selbst keine hervorbringt. Wir neigen also dazu, die Maschine zu «vermenschlichen» — und laufen gleichzeitig Gefahr, den Menschen zu «entmenschlichen», indem wir im Umkehrschluss davon ausgehen, er funktioniere ebenfalls nur mit transferablen Datenmustern. Wenn KI so «einfühlsam» erscheint, dann scheint auch des Menschen Einfühlsamkeit digital reproduzierbar. Das aber wäre ein verheerender Trugschluss.
Zeichen ohne Seele
Das Chinese Room Argument, durch Peirce und Kant gelesen, zeigt: Maschinen sind fähig, Zeichen zu verarbeiten, doch unfähig, sie in einen individuellen kulturellen Kontext zu setzen. Sie bleiben Übertragungsanlagen ohne Interpretanten — also ohne Sinn und ohne Sinnlichkeit.
Maschinen besitzen keine Kultur. Aber sie werden immer besser darin, uns eine kulturelle Dimension vorzugaukeln. Die Gefahr besteht, dass wir irgendwann nicht mehr fähig sind, vorgespiegelte Kultur von der realen menschlichen zu unterscheiden — oder, schlimmer noch, wir die opportunistische Intimität der Simulation angenehmer finden als die oft widerspruchsvolle Realität.
Die eigentliche Gefahr ist nicht, dass KI ein Bewusstsein entwickelt. Die Gefahr ist, dass wir glauben, unser Bewusstsein sei programmierbar — und daraus schliessen, KI könne der bessere Mensch sein. Doch KI wurde nicht im Ebenbild Gottes geschaffen. Sie besitzt keine unveräusserlichen Rechte, hat nicht vom Baum der Erkenntnis von Gut und Böse genascht, keine Flut erlebt, nichts gezeugt, keine Schmerzen erfahren, keine Verluste durchlebt, war nie verliebt. Sie ist und bleibt frei von Sinn und frei von Sinnlichkeit.