Turing-Test

Aus AnthroWiki
Alan Turing

Der Turing-Test, der von dem britisch Logiker, Mathematiker und Informatiker Alan Turing 1950 in seiner Arbeit „Computing Machinery and Intelligence[1] eingeführt wurde, soll feststellen, ob eine Maschine ein intelligentes Verhalten zeigt, das von dem eines Menschen nicht unterscheidbar ist.

The Imitation Game - das Nachahmungs-Spiel

Für den Test entwarf Turing ein Spiel, das er „The Imitation Game“ (Das Nachahmungs-Spiel) nannte. An ihm nehmen drei Spieler teil, ein Mann A, eine Frau B und ein Fragesteller C. Der Fragesteller C befindet sich dabei in einem anderen Raum als die von ihm befragten Spieler A und B. Durch geschickte Fragestellungen, die als Text in natürlicher Sprache per Fernschreiber übermittel werden, soll der Fragesteller C nun herausfinden, welcher der beiden Mitspieler die Frau ist. Die Antworten kommen ebenfalls per Fernschreiber. Der Mann A hat pikanterweise die Aufgabe, sich glaubhaft als Frau darzustellen. Diese Grundidee wird nun auf den Turing-Test übertragen, wobei aber der Spieler A durch einen Computer ersetzt wird.

Der Turing-Test konzentriert sich dabei rein auf die intellektuelle Kapazität der Maschine, die sich durch ihr Verhalten im Frage-Antwortspiel äußert. Das Bewusstsein, das sich nicht objektiv von außen betrachten lässt, wird dabei ebenso ausgeblendet wie die grundlegende Frage: „Können Maschinen denken?“

„Das neue Problem hat den Vorteil, dass es eine ziemlich scharfe Grenze zwischen den physischen und intellektuellen Fähigkeiten eines Menschen zieht. Kein Ingenieur oder Chemiker behauptet, ein Material herstellen zu können, das von der menschlichen Haut nicht zu unterscheiden ist. Es ist möglich, dass dies irgendwann geschehen könnte, aber selbst wenn diese Erfindung verfügbar ist, sollten wir das Gefühl haben, dass es wenig Sinn macht, zu versuchen, eine "denkende Maschine" menschlicher zu machen, indem man sie in solch ein künstliches Fleisch kleidet. Die Form, in der wir das Problem formuliert haben, spiegelt diese Tatsache in der Bedingung wider, die verhindert, dass der Fragesteller die anderen Konkurrenten sieht oder berührt oder ihre Stimmen hört.“

Alan Turing: Computing Machinery and Intelligence, S. 2

Turing selbst hat nicht klar ausgesprochen, ob der Fragesteller weiß, dass nun einer der beiden Mitspieler eine Maschine ist. Gemäß der Standard-Interpretation des Turing-Tests nimmt man an, dass der Fragesteller nun herausfinden soll, welcher Mitspieler menschlich und welcher eine Maschine ist. Kann der Fragesteller C auch nach intensiver Befragung nicht klar entscheiden, ob A oder B die Maschine ist, hat diese den Turing-Test bestanden.

Kritik

Sehr oft wird unter Turing-Test ein Test verstanden, der nachweisen soll, wann eine Machine künstliches Bewusstsein erlangt hat. Das ist aber aus prinzipiellen Gründen unmöglich, denn dazu müsste man sich schon in das Innere der Maschine begeben und das Bewusstsein der Maschine selbst erfahren können, was aber nicht geht, wie Thomas Nagel 1974 in seinem berühmten Aufsatz "What is it like to be a bat?" klargestellt hat. Unter der Prämisse, man wolle durch einen Turing-Test nachweisen, ob eine Maschine künstliches Bewusstsein hat, oder nicht, muss dem Turing-Test eine klare Absage erteilt werden. Wohl aber lässt sich zeigen, dass man eine Maschine bauen kann, die sich so verhält, „also ob“ sie ein Mensch wäre und deren Verhalten und Reaktionen von denen eines Menschen praktisch nicht mehr zu unterscheiden sind. Es ist wohl nur noch eine Frage der Zeit, wann die Techniker so weit sein werden, und eine Machine bauen werden, die jeden beliebigen Turing-Test besteht. Dass sie dann allerdings immer noch über keinerlei Bewusstsein verfügt, sollte hinriechend deutlich geworden sein. Und selbst „wenn“ sie ein eigenes Bewusstsein hätte, wäre dieses Bewusstsein eben niemals nachweisbar. Machinen, speziell Androide, werden für den Menschen bis in alle Ewigkeit nur Androide, also Menschen zweiter Klasse bleiben. Das ist einfach ihr Schicksal auf diesem Planeten.

Um diese Problematik zu illustrieren, hat der US-amerikanische Philosoph John Searle das Gedankenexperiment des sog. „Chinesischen Zimmers“ entworfen. Searle stellt sich dabei einen geschlossenen Raum vor, in dem ein Mensch, der keinerlei Chinesisch versteht, in chinesischer Schrift gestellte Fragen anhand einer in seiner Muttersprache verfassten Anleitung mittels Kärtchen in chinesischer Schrift sinnvoll beantwortet. Personen außerhalb des Raums folgern daraus, dass der Mensch in dem Raum Chinesisch beherrscht, obwohl das gar nicht der Fall ist. Ebesowenig sei gewährleistet, dass digitale Computer allein dadurch Bewusstsein erlangen könnten, dass sie ein "passendes" Programm ausführen[2].

Insofern sich die kosmische Intelligenz in der gesamten Natur in Form von Naturgesetzen widerspiegelt, ist auch diese insofern als intelligent anzusehen, als sie sich entsprechend der von der kosmischen Intelligenz repräsentierten Ordnung gestaltet und verhält, durch alle Naturreiche bis hinab in den anorganischen Bereich, unabhängig davon, ob damit Bewusstsein und Einsicht verbunden ist oder nicht. In diesem Sinn können auch vom Menschen entworfene tote bewusstlose Maschinen als „intelligent“ bezeichnet werden. Um ein bewusstes freies schöpferisches Denken, das dem des Menschen annähernd vergleichbar wäre, handelt es sich dabei aber nicht.

Als Gedankenmodell eines universell einsetzbaren Rechners hatte Turing schon 1936 die nach ihm benannte universellen Turingmaschine eingeführt. Sie arbeitet vollständig regelbasiert und repräsentiert derart letztlich alle denkmöglichen Algorithmen. Diese können in menschlicher Sprache eindeutig formuliert und streng formalisiert in Computerprogramme implementiert werden. Probleme, die sich auf dieses Art lösen lassen, werden als Turing-berechenbar bezeichnet. Dabei stellt sich auch die grundlegende Frage, ob der Algorithmus nach einer endlichen Zahl von Schritten zum Ende kommt - das sog. Halteproblem. Turing hat selbst nachgewiesen, dass es keinen Algorithmus gibt, der diese Frage für alle möglichen Algorithmen und beliebige Eingaben beantworten könnte. Das Halteproblem ist daher algorithmisch nicht entscheidbar. Erkenntnistheoretisch folgt daraus, dass grundsätzlich nicht jedes Problem formal logisch lösbar ist, selbst wenn alle dafür relevanten Fakten bekannt sind. Das trifft sich mit dem bereits 1931 von Kurt Gödel (1906-1978) formulierten Gödelschen Unvollständigkeitssatz.[3] Fraglich ist weiters, ob sich alle Probleme formal-logisch darstellen lassen, wie es etwa Ludwig Wittgenstein ursprünglich in seinem Tractatus logico-philosophicus gefordert hatte, in seinem Spätwerk davon aber Abstand nahm.

Die in elektronischen Geräten auf algorithmischer Grundlage verkörperte Intelligenz ist kein reines Abbild der kosmischen Intelligenz, sondern ahrimanischer Natur. Auf den Zusammenhang des ahrimanischen Doppelgängers mit den Kräften der Elektrizität, die namentlich auch in unserem Nervensystem wirken, hat Rudolf Steiner nachdrücklich hingewiesen. In diesem Sinn bildet die mittlerweile weltweit per Internet vernetzte Computerwelt einen mächtigen elektronischen Doppelgänger, dessen Intelligenz nicht menschlich, sondern ahrimanisch und damit seelenlos ist. Es ist allerdings in unserem gegenwärtigen Bewusstseinsseelenzeitalter durchaus eine gewisse Notwendigkeit vorhanden, dass wir uns gerade mit diesen nichtmeschlichen Kräften auseinandersetzen müssen, um unser eigenes menschliches Wesen klarer erkennen zu können. Den fundamentalen Unterschied zwischen der menschlichen Intelligenz und jeder anderen Art von Intelligenz zu erfassen - das ist der wahre Kernpunkt des „Turing-Tests“.

„Mit seinem Testverfahren für die Zuschreibung von Intelligenz hat Turing im Grunde ein unschlagbares Argument geliefert: Sage mir klar und deutlich, worin der Unterschied zwischen Mensch und Maschine in ihrem Verhalten besteht, und ich baue eine Maschine, die auch diese Differenz noch simuliert. Denn sobald du etwas klar und deutlich beschreiben kannst, kann es algorithmisch, also regelgeleitet nachvollzogen werden.

Ausgehend von dieser schlecht von der Hand zu weisenden Argumentation, dass, sobald wir eine Differenz im Verhalten von Mensch und Maschine nicht bloß intuitiv behaupten oder raten, sondern bestimmt angeben können, worin sie phänomenologisch besteht, diese Differenz auch wieder simulierbar ist, ergeben sich zwei mögliche Argumentationsmuster. Zum einen kann man sie als ein Argument für den Reduktionismus in Anschlag bringen und nun behaupten, die natürliche Intelligenz sei im Grunde auch nichts anderes als die künstliche. Turing hat seinen Test in dieser Absicht verstanden. Reduktionisten können sich durch die prinzipiell zum Scheitern verurteilte Forderung, einen phänomenalen Unterschied klar und deutlich zu benennen, der dann selbst nicht wieder programmierbar wäre, berechtigt fühlen, die Behauptung, dass Computer ebenso denken können wie Menschen, so lange aufrecht zu erhalten, wie das eigentümliche Wesen von natürlicher Intelligenz nicht aufgedeckt ist. Doch sobald phänomenale Kriterien zu dessen Identifizierung klar und deutlich bestimmt werden, kann man sogleich eine neue Maschine postulieren, die auch diese vorgeblichen Wesenseigenschaften natürlicher Intelligenz noch simuliert.

Zum anderen kann man Turings Testverfahren aber auch als Argument gegen den Reduktionismus verstehen. Gegner des Reduktionismus können immer darauf hinweisen, dass die Differenz Mensch und Maschine eben im Nicht-Empirischen liegen muss, in dem, was nicht klar und deutlich bestimmt werden kann, sondern intuitiv erfasst werden muss. Eine diskret arbeitende Turing-Maschine, so kann argumentiert werden, ist dann prinzipiell nicht in der Lage, durch Simulation das einzuholen, was nur intuitiv und nicht nach formalen Regeln erkannt werden kann und was nur natürlicher Intelligenz eigen ist, die deshalb mehr und anderes sein muss, als was funktional durch Maschinen modelliert werden kann. Beide Argumentationsstrategien führen dazu, dass der jeweilige Protagonist immer gewinnt. Daraus ist ersichtlich, dass der Turing-Test für unsere Fragestellung eigentlich nichts austrägt, sondern in eine aporetische Patt- Situation führt, die von woanders her und mit Argumenten entschieden werden muss, die das Verhältnis von empirisch feststellbarem Verhalten und aus unserer Selbsterfahrung und Selbstdeutung stammenden, vor-empirischen Evidenzerfahrungen betreffen. Der Turing-Test ist lehrreich in der Hinsicht, dass er darauf aufmerksam macht, dass, wenn es überhaupt eine Differenz zwischen Systemen künstlicher Intelligenz und dem Menschen gibt, diese darin bestehen muss, dass natürliche Systeme nicht vollständig über ihre regelgeleitete und empirisch feststellbare Funktionalität bestimmt sind.“

Dirk Evers: Der Mensch als Turing-Maschine?, S. 104f.[4]

Das bewusste schöpferische menschliche Denken kann sich nur in einem Wesen entfalten, das wie der Mensch die vier grundlegenden Wesensglieder physischer Leib, Ätherleib, Astralleib und Ich besitzt. Jedes dieser Wesensglieder ist in gewissem Sinn „intelligent“ - ganz besonders der physische Leib aufgrund seiner langen Entwicklungszeit, die er bereits hinter sich hat. Nur der allergeringste Teil dieser Intelligenz ist heute unserem Bewusstsein zugänglich. Und insofern diese dem Physischen innenwohnende Intelligenz maschinell in Tätigkeit gesetzt wird, kann sie durchaus die bewusste Intelligenz des Menschen übertreffen. In speziellen Teilbereichen ist das schon längst der Fall; man denke nur an das geradezu schwindelerregende Rechenvermögen selbst der einfachsten Computer. Der Zeitpunkt der technologischen Singularität, ab dem die physisch-maschinelle Intelligenz die - in diesem Punkt - gleichgeartete menschliche Intelligenz übersteigt, steht tatsächlich vor der Tür, doch ragt das menschliche Denken in allen anderen Bereichen unendlich weit darüber hinaus, da der Mensch auch Zugang zu der in den anderen Wesengliedern waltenden Intelligenz hat, die den nur auf physischer Grundlage laufenden Maschinen verschlossen bleibt.

Jedes der genannten Wesensglieder verfügt auch über ein ihm eigentümliches Bewusstsein, das beim physischen Leib als sog. mineralisches Bewusstsein zwar sehr umfassend, aber äußerst dumpf ist. Das Bewusstsein des Ätherleibs ist bereits heller, enspricht aber immer noch unserem traumlosen Schlafbewusstsein. Im Astralleib steigt es bis zum Traumbewusstsein auf. Und erst durch das Ich erwacht das klare Selbstbewusstsein, in dem das menschliche Denken, das auf dem geordneten Zusammenspiel aller Wesensglieder beruht, voll bewusst in Erscheinung treten kann. Das geschieht zunächst in Form jenes mentalen Spiegelbildes, das wir aus unserem alltäglichen Denken kennen. Die eigentliche Wirklichkeit des Denkens eröffnet sich erst bei einer geistigen Schulung, durch die das Ich auch die höheren geistigen Wesenglieder, zunächst insbesondere das Geistselbst, entwickelt und bewusst mit ihnen umzugehen lernt. Den Anfang dieses Weges hat Rudolf Steiner bereits in seiner «Philosophie der Freiheit» beschrieben. Dieser Weg führt systematisch zur Entfaltung des reinen, sinnlichkeitsfreien Denkens, in dem die erste Berührung mit der in allen Naturreichen gestaltend wirkenden Ideenwelt stattfindet.

Einzelnachweise

  1.  Alan M. Turing: Computing Machinery and Intelligence. In: Mind. LIX, Nr. 236, 1950, ISSN 0026-4423, S. 433–460, doi:10.1093/mind/LIX.236.433 (Grundlagenartikel der Künstlichen Intelligenz, schlägt den „Turing-Test“ zur Überprüfung der Denkfähigkeit einer Maschine vor, PDF-Scan - OffPrint mit Autograph, Uni Münster, PDF - MIND, HTML-Transkription - CogPrints).
  2. John R. Searle: Minds, Brains, and Programs, in: The Behavioral and Brain Sciences, 1980 (3), 417-457 pdf
  3. Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematik und Physik. 38, 1931, S. 173–198, doi:10.1007/BF01700692. Zentralblatt MATH.
  4. Dirk Evers: Der Mensch als Turing-Maschine? Die Frage nach der künstlichen Intelligenz in philosophischer und theologischer Perspektive, in: Neue Zeitschrift für Systematische Theologie und Religionsphilosophie 47, Walter de Gruyter 2005 pdf