Alan N. Shapiro, Visiting Professor in Transdisciplinary Design, Folkwang University of the Arts, Essen, Germany

Blog and project archive about transdisciplinary design, media theory and creative coding

Der Turing-Test und John Searles Gedankenexperiment vom chinesischen Zimmer, von Lulu Zhao

No Comments »

Durch die Entwicklung der Informatik und der Kognitions-Wissenschaft im 20. Jahrhundert wurde die traditionelle Philosophie des Geistes Gegenstand wissenschaftlicher Erforschung. Diese Wandlung ist dabei auf eine Computer-Analogie des menschlichen Gehirns zurückführen. Als Ergebnis dieser Paradigmenwechsels entstand das Thema der künstlichen Intelligenz. Alan Turing hat im Jahr 1950 das Paper “Computing Machinery and Intelligence” veröffentlicht. Es wird in der Regel als der Beginn des Aufstiegs der künstlichen Intelligenz betrachtet. In diesem Artikel hat Turing den berühmten “Turing-Test” vorgeschlagen. Dieses Schema bietet nicht nur eine operative Definition für die menschliche Intelligenz, sondern wirft gleichzeitig die Frage auf, ob Maschinen durch die Simulation menschlicher Gedanken oder menschlichen Verhaltens denken könnten.

Der Turing-Test versucht somit festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen besitzt. Der aus der Anfangszeit des Informatik-Teilbereichs Künstliche Intelligenz stammende und seither legendäre Test trug dazu bei, den alten Mythos von der denkenden Maschine für das Informationszeitalter neu zu beleben.

Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden, und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen unterstellt.

Im Jahr 1980 hatte John Searle, Philosophieprofessor in Berkeley, den Artikel “Minds, Brains and Programs” veröffentlicht. In diesem Artikel stellt sich Searle entschieden gegen Turin. Er behauptet, wenn ein Computerprogramm den Turing-Test besteht, bedeutet dies nicht, dass es künstlich intelligent sei. Stattdessen handle es sich nur um eine Simulation von Intelligenz. Um seinen Standpunkt zu demonstrieren, hat Searle das Chinese Room Experiment entworfen. Der Inhalt dieses Gedanken-Experiments ist der folgende:

Stellen Sie sich einen englischsprachigen Mann in einem Zimmer vor, der gar kein Chinesisch sprechen kann. In diesem Raum gibt es eine Schachtel chinesischer Zeichenkarten und ein Regelbuch. Die Regeln wurden auf Englisch geschrieben und sie leiten den Mann im Raum an, wie man die chinesische Zeichenkarte nutzen und Output genieren kann. Aber dem Mann wurden nicht die Bedeutungen der Wörter oder der Phrasen mitgeteilt. Anzumerken ist, dass diese Regeln kein chinesisch-englisches Wörterbuch darstellen: Es sind nur bestimmte Regeln, die chinesischen Zeichenkarte in Gebrauch zu nehmen.

Das Wesen dieser Regeln ist eigentlich ein Programm (Jedes funktionsfähige Programm auf einer Turing-Test Maschine kann als solches Regelbuch beschrieben werden).

Jemand von außerhalb des Raumes gibt einen Zettel in das Zimmer. Auf dem Zettel ist eine Frage auf Chinesisch notiert. (Input). Nehmen wir an, dass die Regeln im Raumbuch (Programm) so gut geschrieben sind, dass, solange der Mann im Zimmer strikt nach den Regeln arbeitet, es ihm möglich ist, durch die Kombination von chinesischen Zeichenkarten eigene Wörter zu erzeugen (Output), um die eigegebene Frage perfekt zu beantworten.

Betrachtet man nur den Output des Mannes, scheint er im Hinblick auf sein Chinesischverständnis den Turing-Test bestanden zu haben. Searle wies darauf hin, dass der Mann im Zimmer trotzdem kein Chinesisch verstehen oder sprechen kann. Ebensowenig findet sich irgendwo im ganzen Raum eine Art geistige Existenz des Chinesischverständnisses. Es gibt keinen Zustand des Chinesischverständnisses im Raum. Somit schlussfolgert er: Falls eine Maschine den Turing-Test bestehen kann, bedeutet dies trotzdem nicht, dass sie intelligent sein noch menschliches Denkvermögen besitzen muss.

Hier ist eine abgekürzte Original-Version vom Searle aus dem Jahr 1999:

“Imagine a native English speaker who knows no Chinese locked in a room full of boxes of Chinese symbols (a data base) together with a book of instructions for manipulating the symbols (the program). Imagine that people outside the room send in other Chinese symbols which, unknown to the person in the room, are questions in Chinese (the input). And imagine that by following the instructions in the program the man in the room is able to pass out Chinese symbols which are correct answers to the questions (the output). The program enables the person in the room to pass the Turing Test for understanding Chinese but he does not understand a word of Chinese.”

Das „Chinese Room“-Argument ist eigentlich komplizierter. Gegen Ende des Textes formuliert Searle eine mögliche Widerrede, um sein Argument zu testen und zu stärken. Im zweiten Teil des Artikels antwortet Searle auf mindestens sechs verschiedene Gegenargumenten seines Gedankenexperiments The Chinese room: System Reply, The Robot Reply, Brain Simulator Reply, Combination Reply, Other Mind Reply, Many Mansions Reply, etc.

Im nächsten Absatz möchte ich hauptsächlich über System Replay und Roboter Replay schreiben. Beide Argumente finde ich sehr interessant und beide sind mir auch direkt eingefallen beim Lesen des Textes von Searle.

Eine sehr intuitive Idee ist folgende: Der Mann im Zimmer kennt kein Chinesisch, und kann das Buch und die Karten auch nicht verstehen. Aber wenn wir das Zimmer als Ganzes betrachten, scheint dieses Zimmer Chinesisch zu verstehen. Es ist wie menschliche Gehirnzellen, sie haben selbst kein Bewusstsein, aber das Gehirn als Aggregat von Gehirnzellen ist bewusst. Dies ist das System Replay: der Raum als System, im Allgemeinen ergibt einen bestimmten Zustand des Geistes.

Als Gegenargument hierzu hat Searle sein Gedanken-Experiment erweitert. Stellen wir uns vor, dieser Mann bliebe lange genug im Zimmer und lernte das Regelbuch und die Form der chinesischen Zeichenkarten auswendig. Wir öffnen die Tür und der Mann tritt aus dem Zimmer. Während er auf der Straße spaziert, ist er selbst schon ein laufender Chinese Room. Das Regelbuch und die chinesischen Zeichenkarten sind verinnerlicht. Searle bezeichnet diese Szene als Internalized Room. Wenn jemand ihm eine chinesische Notiz übergegeben würde, könnte er als das internalisierte Zimmer immer noch antworten. Gleichwohl kennt er von keiner Karte den wirklichen Inhalt. Wir könnten ihn beispielsweise fragen: Ich schenke dir die kleine rote Blume, ok? Aufgrund der gelernten Regel, würde der Mann ja sagen, ohne zu wissen, was genau die Worte heißen; so z.B. “kleine rote Blume”, “Ich” und “Du”, und so weiter. Obwohl in der Realität eine kleine rote Blume vor den Augen hat, wird er nicht wissen, dass unser Satz eigentlich von dieser Blume handelt. Also argumentiert Searle, dass das Zimmer als Ganzes immer noch nicht Chinesisch verstehen kann.

Searle wies darauf hin, dass der Chinese Room zwar den Turing Test besteht, hinter dem Programm jedoch nur eine Simulation eines geistigen Zustands steht, der die chinesische Sprache versteht. Ein wahres Verständnis der chinesischen Sprache wird nicht erreicht. (Die harten Unterstützer der System Replay hingegen würden behaupten, dass das Regelbuch und die Karte von dem Mann verinnerlicht wurden. Obwohl der Mann das Chinesische nicht verstanden hat, ist ein Teil seines Gehirns ein Sub-system, um Chinesisch zu verstehen.) Diese Widerrede Searles scheint nicht ganz überzeugend. Ein wirkliches Verständnis der Sprache liegt vor, wenn das Subjekt sogar die Existenz eines Geisteszustandes wissen und verstehen kann. Diesen Punkt nennt man in der Philosophie gemeinhin Intentionalität. Searle meinte, Computer und Programm könnten diese Intentionalität nicht erlangen. Stattdessen bliebe diese nur dem menschlichen Gehirn oder einer ähnlichen physiologischen Struktur und Organisation des Gehirns vorbehalten. Hier stimme nicht ganz mit Searle überein.

Denn ein weiteres Gegenargument, das von Searles Gegnern aufgebracht wurde, ist das Roboter Replay. Sie behaupten, dass Intentionalität vollständig von Computern und Maschinen erreicht werden kann. Da der Raum als System keine chinesischen Zeichensymbole und ihre entsprechenden Objekte zusammenstellen kann, versuchen wir die Verbindung herzustellen. Wir können den Raum mit Sensoren verbinden, zum Beispiel mit Kameras, Mikrofonen, Touch-Sensoren, Geschmackssensoren oder mit einer Reihe von Bewegungsprozessen. Kurz gesagt, dieser Raum ist das Gehirn eines Roboters. Jetzt müssen wir noch das Regelbuch so überarbeiten, dass der Raum nicht nur die Eingabe und Ausgabe von chinesischen Wörtern verarbeiten kann, sondern so, dass er die ganzen „Signale“ wie Ton und Licht, Temperatur usw. wahrnehmen und entsprechende Signale ausgeben kann. Die Ausgabe erfolgt also nicht nur mit Worten, sondern auch mit Geräuschen und sogar körperlichen Bewegungen. Dieser Raum muss möglicherweise schmal sein, damit diese entwickelte Technologie in den Kopf eines Roboters passt. (Oder er muss gar nicht klein sein und der Roboter empfängt die Signale des Raums über Fernsignale.) Jetzt können wir mit dem Roboter kommunizieren. Zeigen wir ihm jetzt die kleine rote Blume und fragen ihn: „Ich schenke Dir die kleine rote Blume, ok?“.

Der Roboter ist nicht das gleiche System wie beim System Replay-Argument und seine Antwort ist nicht bloß: „Ja“. Sein visuelles System wird die kleine rote Blume erfassen und er wird die Blume mit einem freundlichen Lachen entgegennehmen.

Können wir in diesem Fall sagen, dass der Roboter die Bedeutung der chinesischen Sätze verstünde? Hat der Roboter wirklich die geistige Fähigkeit „Chinesisch verstehen“?

Searle antwortet, dieser Homo (der Mann) in Kopf des Roboters empfängt die Signale von den Sensoren des Roboters. Dies seien jedoch keine ganzen, direkten Bilder, Ton und so weiter, sondern eine Reihe von digitalen Daten. So sind z.B. die „Augen“ des Roboters eine Kamera. Wenn der Roboter eine Blume „sieht“, ist dies eigentlich kein Sehen, weil es keinen Bildschirm in dem Kopf gibt, sondern die Kamera die digitalen Daten sendet und die Roboter lediglich die entsprechende Reaktion ausgibt. Dies führt zu der Aussprache des chinesischen Wortes „Blume“ und der Reaktion „mit der Hand entgegennehmen“. Aber dieser „Homo“ weiß nicht, dass seine Ausführung über eine Blume gerade jetzt stattgefunden hat. Intentionalität scheint noch zu fehlen, also scheint das wirkliche Verständnis nicht zu existieren. Dies ist das Homunkulus Argument von Searle.

Die Antwort auf das Homunkulus-Argument ist eine Kombination aus System Replay und Robert Replay, das sogenannte Combinaton Replay.

Obwohl der kleine „Homo“ kein Chinesisch versteht, scheint der Roboter als Ganzes wirklich ein geistiges Verständnis zu haben. Zumindest im Aussehen, im Verhalten und in der Funktion. Der Roboter kann nicht nur auf chinesische Fragen antworten, auch sein Verhalten sieht wie das eines normalen Chinesen aus. Wir scheinen keine Antwort zu finden, warum ein solch perfekter Roboter keine Intelligenz aufweisen sollte. Wie die „Hosts“ in “The West Word”, sehen sie wie Menschen aus, berühren sich wie Menschen, sprechen wie Menschen. Aus welchem Grund leugnen wir, dass sie einen Geist haben?

Searles Antwort hierauf wiederholt sich stets. Er ist der Überzeugung, dass Intentionalität nur durch die physiologische Struktur des Gehirns ausgegeben werden kann; tiefere Gründe für diese Behauptung stellt er jedoch nicht vor.

Searles Chinese Room Argument ist trotz allem ein wichtiger Einwand gegen den Turing-Test. Auch nach dem Chinese Room Argument hat sich die philosophische Diskussion weiter fortgesetzt. An dieser Stelle ließe sich eine eher allgemeine Bemerkung von Barries [1987] anbringen: Barresis Einwand basiert auf dem Gedanken- Experiment von Searle und diskutiert die Syntax und Semantik des Problems weiter. Er glaubte, dass die Maschine, die pure syntaktische Eigenschaften hat, den Turing-Test bestehen kann. Aber wenn diese kein natürliches semantisches hat, hat eine solche Maschine auf keinem Fall den Grundmenschenverstand. Menschliche Sprache ist keine nur aus Syntax bestehende Form eines Systems, sondern ein semantisches System mit reicher Struktur der Semantik. Das semantische Merkmal der menschlichen Sprache ist die Garantie der menschlichen Interaktion der menschlichen Zivilisation.

Doch kommen wir noch einmal zurück auf den Turing Test:

Der Turing-Test führte auch zu vielen Diskussionen und Argumenten aus den Bereichen der Philosophie, der Informatik, der Kognitiven und Neuronalen Psychologie.

Die Argumente über die Philosophie des Turing-Tests haben sich nicht auf die Frage beschränkt, ob die Maschine denken kann. Im Gegenzug der Auseinandersetzung mit der Frage des Denkens der Maschine beschrieb Turing zugleich das Wesen des menschlichen Geistes (Bewusstsein), oder den Begriff einer künstlichen Intelligenz. Mehr als ein halbes Jahrhundert wurde der Turing-Test unter Philosophen vor allem anhand der folgenden drei Aspekte diskutiert:

1. Ist die intelligente Simulation wirklich Intelligent?

2. Muss die künstliche Intelligenz Sprache als Vermittler verwenden? Und kann durch das Sprachverhalten eine vielfältige künstliche Intelligenz hinreichend repräsentiert werden?

3. Können wir nur basierend auf den Urteilen und Erwägungen der Sprache das Wesen der Intelligenz erfassen?

Im Folgenden gehe ich auf jeden dieser Punkte im Einzelnen ein.

Simulation und Kopie

Der Turing-Test ist auf der Grundlage des Simulation-Spiels erbaut worden. Wenn die Maschine die menschliche Intelligenz simuliert, hat dann auch diese Maschine Intelligenz? Bereits 1964 hat Keith Gunderson daran gezweifelt. Er behauptet, dass hohe simulierte Töne die Ohren der Menschen verwirren können. Aber es gibt kein echtes Band, dass man im Phonograph abspielen könnte. Maschinen könnten die gleichen Dinge erledigen wie Menschen, und oft sogar viel besser als Menschen. Er bedauere es nicht, dass die Maschine intelligent sei. 1972 hat Kenneth Colby auch einen ähnlichen Standpunkt vertreten. Turings Simulationsspiel sei fehlerhaft und vage. Wenn z.B. eine Maschine ”wie eine Frau” sein soll, ist diese Vorstellung sehr unklar. Darüber hinaus ist im Simulationsspiel nicht angegeben, ob ein Computer eine Frau nachahmt und nicht einen Mann imitiert. Die Nachahmung der Frau wäre erfolgreich, aber kann man dasselbe dann von der Imitation des Manns behaupten?

Im Jahr 1980 hat John Searle erklärt, dass eine vom Computer simulierte Flamme nicht wirklich brennt. Ein simulierter Motor kann keinen wirklichen Schub erzeugen, genau so wenig kann das Verständnis der Simulation wirklich verstehen. Simulierte Intelligenz ist nicht wirklich intelligent.

In den 1990er hat Jack Copeland Simulation von Duplikation unterschieden. Copeland meinte, dass eine männliche Person, die eine Frau nachahmt, trotzdem ein Mann bleibe. Wenn ein Mann in einem simulierten Spiel gewonnen hat, ist er nur erfolgreich als ein eine Frau nachahmender Mann, aber er ist ganz offensichtlich keine Frau. Deshalb ist ein simuliertes Spiel als Test nicht gut genug bzw. nicht ausreichend. Simulierte Intelligenz ist nicht wirklich intelligent; ebenso wie ein echt aussehender, aber künstlicher Diamant kein echter Diamant sei. Obwohl eine simulierte menschlich intelligente Maschine den Turing-Test bestehen kann, bedeutet dies nicht, dass die Maschine auch wirklich intelligent sei. Copeland nahm an, dass Simulation tatsächlich eine Darstellung des Wesens der Dinge ist, die wiederum keine Simulation sind. So z. B. sei das Schauspielern des Todes eine Repräsentation des Wesens der Dinge oder ein künstlicher Kohlenstoff, der über die wesentlichen Eigenschaften des natürlichen Kohlenstoffs verfügt, eine Simulation.

Nach der Meinung von Searle und Copeland ist die Simulation nicht gleichbedeutend mit der Duplikation. Lawrence Carleton hat dem widersprochen. Er erwiderte, wenn die zwei Tester Eingabe und Ausgabe gleich sind, dann können wir dies als Duplikation erkennen. Die von einem Computer simulierte Flamme ist keine Kopie, denn sie hat nicht die gleiche Eingabe und Ausgabe wie eine echte Flamme. Deswegen kann die Flamme nur eine Computer-Simulation sein. Aber beim Turing-Test und Searles Chinese Room sind die Eingabe und Ausgabe in dem Simulationstest, und so können beide als Duplikation beschrieben werden. Da der Turing Test keine oberflächliche Simulation ist, wird das Wesen des Geistes repräsentiert. Deswegen weise die den Turing-Test bestandene Maschine echte Intelligenz auf.

Sprache und Intelligenz

Bezogen auf die philosophischen Argumente des Turing-Tests gibt es noch ein weiteres Thema; es bezieht sich auf das Medium der Sprache. Denn im Turing-Test wird die Definition von Intelligenz auf der Basis der Sprachkommunikation aufgebaut. Im Jahr 1968 hat Fodor darauf hingewiesen, dass der Turing-Test nur eine Teilfunktion der menschlichen Intelligenz, insbesondere die sprachliche Intelligenz zeigen kann. Die den Turing-Test bestehende Maschine besitzt nur eine partielle Funktion der menschlichen Intelligenz. Allerdings beziehen sich solche Argumente tatsächlich auf zwei verschiedene Aspekte: Ob Sprache für Intelligenz notwendig ist oder ob Sprache für die Intelligenz ausreicht.

Auf die Notwendigkeit der Sprache bei künstlicher Intelligenz hat Copeland folgendermaßen geantwortet. Er meinte, dass einige intelligente Kreaturen wie Schimpansen, Delfine und Babys aufgrund ihrer fehlenden Sprachfähigkeit im Test versagen würden. Wenn diese intelligenten Kreaturen alle den Turing-Test nicht bestehen, so können wir spekulieren, dass eine intelligente Maschine auch den Turing-Test bestehen könnte. Der vorher erwähnte Standpunkt von Fodor lässt sich in der Frage zusammenfassen: Können durch die Sprache alle Aspekte der menschlichen Intelligenz dargestellt werden? Nach seiner Meinung ist der Testbereich des Turing-Tests auf die Fähigkeit des menschlichen Dialogs beschränkt. Deshalb kann der Turing Test nicht als allgemeiner menschlicher Intelligenztest angewendet werden.

Gegen ein solches Gegenargument wies Stevenson darauf hin, dass der Turing-Test ein Test für eine volle Funktionsfähigkeit ist. Der Turing-Test ist ein Test für die Fähigkeit einer Prädikatenlogik zweiter Stufe. Die Fähigkeit setzt das Vorhandensein einer Vielzahl von anderen Fähigkeiten voraus. Deswegen ist der Turing-Test ein Test für eine volle Funktionsfähigkeit, es ist nicht nur ein Sprach-Test der Maschine. Später im Jahr 1985 wies Dennett darauf hin, dass der Turing-Test ein allgemeiner Test und auf die menschliche Intelligenz anwendbar sei. Der eigentliche Turing-Test kann viele menschlich-intelligenten Verhaltensweisen prüfen; einschließlich des Verständnisses von Humor, politischer Diskussionen und die Fähigkeit zum Schreiben von Gedichten.

Ein stärkeres Argument lieferte Moor. Er meinte, dass die Sprachkenntnisse ausreichten, um verallgemeinernd Aspekte der menschlichen Intelligenzfähigkeit zu deduzieren. Menschen können nach den Begründungen allmählich die Theorie verbessern; dies bedeutet aber nicht, dass die Menschen alle Beweise oder Begründungen sammeln müssen, um eine Theorie in sich zu schließen. Tatsächlich haben Wissenschaftler nie für eine bestehende wissenschaftliche Hypothese alle Begründungen gesammelt. Wissenschaft und Zivilisation erzeugen trotzdem Fortschritte. Der Standpunkt, dass der Turing-Test sehr beschränkt sei, habe tatsächlich den Tuning-Test als einen normalen Test missverstanden. Turing hat selber gesagt, dass der Turing-Test auf verschiedene Arten angewendet werden kann. Die Test-Maschine kann die Humor-Fähigkeit, die Fremdsprachenkompetenz oder andere Arten von Fähigkeiten prüfen.

Das Wesen der Intelligenz und der Chinese Room von Searle

Die Definition der menschlichen Intelligenz in der Turing-Prüfung wird auf der Grundlage des Urteils der Sätze und ihrer Kombinationen festgelegt. Gegen diese Definition gibt es von außen und innen zwei Argumenten.

Das Argument von außen meint, dass diese Definition nicht ausreichend ist. Das Argument von innen meint, obwohl diese Definition ausreicht, kann man so trotzdem nicht auf ein Intelligenz-Konzept schließen. Tatsächlich hat Turing selbst das Argument von außen vorhergesehen.

Alle Widerreden stimmen immer wieder die alte Leier von 3 Argumenten an: Der Turing-Test hat die Eigenschaften: Behaviorismus und Operationalisierung, das Bewusstsein und das Denken sind untrennbar und das Wesen des menschlichen Denkens ist die Introspektion.

Ned Block sagte zum Beispiel 1981, dass der Turing-Test nur auf menschliches externes Verhalten (external behavior) fokussiert sei, und somit keinen vernünftigen Intelligenztest darstelle. Nach seiner Meinung ist die Intelligenz der Maschine tatsächliche von intelligenten Maschinen-Designern entworfen. Die sogenannten intelligenten Maschinen hingegen folgen lediglich ihrer Ausführung. Wenn ein Mann den Zügen eines Schachmeisters exakt folgt, um in einem Schachspiel zu gewinnen, ist er selbst kein Meister. Auch wenn eine Maschine einen Dialog führt, wiederholt sie nur die Konversation, die der Programmierer im Programm zusammengestellt hat. Deswegen kann die Maschine nicht als intelligent betrachtet werden. Wenn wir uns nur auf die Fähigkeit der Inputs und Outputs konzentrieren, wird unser Verständnis von Intelligenz irregeführt.

Das äußere Argument verwendet die klassische Strategie der Psychologie gegen den Behaviorismus. Hiernach wird das Vorhandensein der Intelligenz anhand der Faktoren Selbstbeobachtung, Bewusstsein und Unterbewusstsein beurteilt.

Philosophen dieser Ansicht sind zum Beispiel Karelis [1986], Rychlak [1991], Mitchell [1996] und Michie. Karelis betonte, dass Bewusstsein das Wesen des Denkens sei. Komplexe oder schlagfertige Verhaltensmerkmale eines Dinges oder einer Maschine deuten somit nicht darauf hin, dass diese Maschine denken kann, solange sie eben kein Bewusstsein hat. Turing selbst hat nicht darauf hingewiesen, ob Bewusstsein und Denken für ihn dasselbe sind, oder ob die den Turing-Test bestehende Maschine über ein Bewusstsein verfügen soll. Rychlak meinte, dass die Selbstbeobachtung (auch Introspektion genannt) eine unerlässliche Eigenschaft der menschlichen Intelligenz sei. Allerdings zeige der Turing-Test diese Eigenschaften der Selbstbeobachtung nicht. Sollte also die Maschine den Turing-Test auch bestehen, so können wir nicht sagen, dass sie intelligent sei. Darüber hinaus betonte Mitchell, dass menschliche Intelligenz eng mit dem Unbewussten verbunden sei. Es ist nicht genug, nur anhand von Sprache zu testen, ob die Maschine denken kann. Denn einige unbewusste Sprachphänomene können auch durch das Simulationsspiel nicht getestet werden.

Während das Argument von außen von Turing vollständig vorhergesehen und darum bewusst eine Definition der Intelligenz ausgelassen wurde, so hat er das innere Argument von Searle nicht erwartet. Searle hat dend Turing-Test stark herausgefordert. Ausgehend von dem berühmten Chinese Room Experiment hat Seattle, wie gezeigt, geschlussfolgert, dass die Maschine im Turing Test gar nicht die Frage und die Antwort versteht und somit über kein Denken und keine Intelligenz verfügt.

Ich persönlich finde, dass die größte Lücke des Chinese Room Arguments die Anweisungsliste (das Programm) ist. Das Programm im Chinese Room kann den Turing-Test auf Chinesisch bestehen. Wenn es kein solches Programm gibt, sind alle Argumente sinnlos. Nun könnte es sein, dass einige Aspekte nicht übereinstimmen würden und dass durch die Verwendung von neuronalen Netzen, dem Deep Learning oder anderen Methoden die Anforderung des Programms nicht erreicht werden können. Aber ich persönlich zweifle hieran. Der Turing-Test ist ein völlig offener Test. Es geht hierbei nicht nur um Übersetzungen oder ein einfaches Frage- und Antwort-Programm. Der Turing-Test kann viele Inhalte besitzen, zum Beispiel den grundsätzlichen Menschenverstand und das Verständnis der Welt. Wir können sogar der Maschine im Test einige Dinge zeigen und diese unterrichten, um dann zu beobachten, wie schnell die Maschine dies begreift.

Es gibt eine Art Credo in der Geschichte der künstlichen Intelligenz: Wir brauchen nur noch eine Regel, dann können wir die künstliche Intelligenz sofort verwirklichen. Ich denke, dieser Satz ist heute immer noch gültig, selbst wenn wir nicht mehr direkt die Regeln selber programmieren, sondern durch höhere Technologien und auf Basis von Daten Regeln automatisch generiert werden können. Wir gehen heutzutage trotzdem den gleichen Weg, in dem Satz verändert sich nur der Anfang zu “nur noch eine Gruppe Daten ……” Es ist immer noch eine offene Frage, ob Denken oder Intelligenz durch die klassische Maschinenimplementierung verwirklicht werden kann. Vielleicht brauchen wir mehr Verständnis für diese Fähigkeiten, um das Wissen der Fähigkeiten zu begreifen und Intelligenz zu erschaffen.

Abschließend würd ich behaupten, dass die Feststellung der Intelligenz eher eine Frage des Grades ist (wie intelligent die Maschine ist), statt die einer Ja/Nein-Frage (ob die Maschine intelligent ist) ist. Wenn in dem Turing-Test die Testzeit festgestellt würde, um den Grad der Intelligenz von einer Maschine zu messen, könnte der Test geeigneter sein. Der Versuch hingegen, eine besondere Fähigkeit im Turing-Test zu definieren, bleibt aufgrund des offenen Frage/Antwort-Horizonts eher unbefriedigend.

Das Wesen des Turing-Tests ist eine operative Definition der menschlichen Intelligenz. Das Wesen des menschlichen Geistes ist ein altes philosophisches Thema. Turing hat vielleicht nicht das Problem exakt definiert, aber zumindest hat er die unterschiedlichen Argumente und Diskussionen zu einem klaren Ziel geführt. Dabei ist es letztlich egal, ob die den Turing-Test bestehende Maschine über echte menschliche Intelligenz verfügt. Letztendlich ist die Entwicklung der künstlichen Intelligenz nicht nur von praktischer Bedeutung, sondern stellt auch eine Herausforderung für den Begriff der Intelligenz im gemeinen Verständnis dar.

Referenzen

Searle, J., 1980, ‘Minds, Brains and Programs’, Behavioral and Brain Sciences, 3: 417–57

Searle, J. 1990a, ‘Is the Brain’s Mind a Computer Program?’, Scientific American, 262(1): 26–31.

‘Searle’s Arguments Against Cognitive Science’, in Preston and Bishop (eds.) 2002.

Boden, M., 1988, Computer Models of the Mind, Cambridge: Cambridge University Press; pp. 238–251 were excerpted and published as ‘Escaping from the Chinese Room’, in The Philosophy of Artificial Intelligence, ed M. A. Boden, New York: Oxford University Press, 1990.

Stanford Encyclopedia of Philosophy- The Cheses Room Argument: https://plato.stanford.edu/entries/chinese-room/#4.1

The Philosophy of Artificial Intelligence, Boden,M ed. (Oxford Readings in Philosophy, Oxford University Press, 1989/90)

Turing, A., 1948, ‘Intelligent Machinery: A Report’, London: National Physical Laboratory.

Turing, A., 1950, ‘Computing Machinery and Intelligence’, Mind, 59: 433–460.

Lulu Zhao 28.03.2017

Leave a Reply