Welcher der von Turing diskutierten Einwände ist der bedeutendste?

A. Turing schlägt in seinem 1950 veröffentlichten Artikel „Computing Machinery and Intelligence“ gleich zu Anfang vor, die Frage „Can machines think?“ zu erwägen. Auch führt er eine Reihe von Einwänden gegen diese Frage an. Diese Semesterarbeit stellt sich zur Aufgabe herauszufinden, welcher dieser Einwände der stichhaltigste bezüglich der philosophischen Relevanz ist. Dies soll schrittweise geschehen: anfangs wird die benannte Frage und deren Verwendung in Turings Artikel analysiert. Danach werden die Einwände unter dem Gesichtspunkt ihrer Relevanz betrachtet, versucht diese zu kategorisieren und schlussendlich einer Bewertung zuzuführen.
In Summe hat Turing in dem Artikel neun Einwände formuliert, aber auch jeden Einzelnen – soweit möglich – entkräftet. Dabei gilt es zu beachten, dass die prominent am Anfang des Artikels gestellte Frage: ‚Können Maschinen denken?‘ in der Folge dreimal umformuliert wird. Nach der ersten Modifikation lautet die Frage: ‚Was passiert, wenn eine Maschine die Rolle von A in diesem Spiel übernimmt?‘ und später dann: ‚Ist ein Digitalrechner vorstellbar, der im Imitation-Game gut abschneidet?‘ und schließlich: ‚Existiert eine ‚discrete state machine‘ (DSM) die im Imitation Game gut abschneidet‘ . Da Turing an dieser Stelle auch darlegt, dass eine finite state machine (FSM) einen Spezialfall einer DSM darstellt, da zwar die Anzahl von diskreten Zustände einer FSM zählbar endlich sind, eine FSM aber durch entsprechendes Hinzufügen von genügend Speicher der DSM gleichwertig ist, können diese beiden Begriffe und somit auch die beiden letzten Umformulierungen der anfangs gestellten Frage in diesem Zusammenhang als gleichbedeutend angesehen werden. Die außergewöhnliche Weitsicht von Turing wird u.a. daran erkennbar, dass er das Ergebnis der ersten Umformulierung nicht bestehen lässt, da er die Möglichkeit einer Maschine in Form eines Biocomputers durch ‚Nachbildung‘ eines Menschen in Betracht zieht und somit auch zur abschließenden Umformulierung kommt. Es bleiben also zwei artverwandte, aber dennoch in ihrer Bedeutung unterschiedliche Fragen:

1. ‚Können Maschinen denken?‘
2. ‚Ist ein Digitalrechner vorstellbar, der im Imitation-Game gut abschneidet?‘

Auch stellte er 50 Jahre in die Zukunft reichende Vermutungen über die Leistungsfähigkeit von Computern und Programmen und über die Akzeptanz von künstlicher Intelligenz in der Gesellschaft an, die zwar nicht 1:1 eingetroffen sind, die aber angesichts der großen Zeitspanne und der rasanten Entwicklung überraschend nahe an der Realität liegen. Das belegt die im Artikel geäußerte große Bedeutung und Sinnhaftigkeit von Vermutungen in Wissenschaft und Philosophie, solange sie nur einer gründlichen Bewertung unterzogen werden.

Zu der Zeit als Turing Frage 1. niederschrieb, wäre er nicht verstanden worden, denn es war schlichtweg nicht vorstellbar, was mit denkenden Maschinen gemeint sein könnte, aber viel wichtiger noch: sie bezieht sich auf Begrifflichkeiten, die nicht oder nur sehr schwer erschöpfend definierbar sind, denn was unter „denken“ zu verstehen ist, könnte zwar aus der umgangssprachlichen Verwendung abgeleitet werden, das würde sich aber einer wissenschaftlichen Deutung entziehen. Darum verfolgt er mit Frage 2. einen völlig anderen Weg, der sich in folgenden Punkten deutlich unterscheidet:

I. Es wird nicht die sprachliche Intelligenz des Digitalrechners bewertet, sondern wie intelligent er agiert bzw. erscheint. Diese Bewertung bezieht sich also nicht auf die betrachtete Intelligenz direkt, sondern ist viel mehr im Bereich des Behaviorismus zu sehen, da es die im menschlichen Verstand intern ablaufende Prozesse ausblendet und lediglich beobachtet, welcher Reiz (Input) zu welchem Verhalten (output) führt.

II. Es ist letztendlich nur ein Spiel und die Bewertung der eingesetzten Intelligenz wird von einem Dritten (Person C) durchgeführt. Das ignoriert mehrere Bedingungen eines wissenschaftlichen Experiments wie Wiederholbarkeit, Objektivität, … Weiterhin ist es als Spiel, bei dem definitionsgemäß zumindest zwei Menschen beteiligt sind, interpersonell und somit in seinem Ausgang von der Auswahl und Konstitution der beteiligten Personen abhängig.

III. Wenn man hier nach Intelligenz fragt, dann ist es lediglich einen Teil des Spektrums der menschlichen Intelligenz, im Wesentlichen der linguistische Teil. Die visuelle, mathematische, musikalische, … Intelligenz wird bewusst ausgeklammert . Inwieweit der interpersonelle und intrapersonelle Aspekt von Intelligenz betroffen ist, die ja bei einer Imitation von Nöten ist, kann aufgrund II nicht endgültig bewertet werden.

Turing war sich sehr wohl bewusst über die Unterschiede der Fragen 1) und 2), denn gleich zu Anfang der Auflistung seiner Einwände weist er darauf hin, dass all diese in Bezug auf die erste Frage zu sehen sind und in Bezug auf das Imitation-Game und Digitalrechner jeglichen Sinn verlieren. Doch ohne es immer genau zu verdeutlichen geht Turing in den Einwänden manchmal indifferent in Bezug diese unterschiedlichen Fragen vor; diese Semesterarbeit versucht an den jeweiligen Stellen dies herauszuarbeiten.
Die von Turing gewählte Reihenfolge der Einwände ist nicht zufällig, sondern kann als eine, von ihm definierte Priorisierung hinsichtlich der Widerlegbarkeit angesehen werden. Einzelne Einwände sind artverwandt, haben ähnliche Ursachen bzw. beziehen sich aufeinander. Darum kann es nicht den einen, wichtigsten Einwand geben; vielmehr müssen alle in Betracht gezogen und in einen Gesamtkontext gestellt werden.

1.) Theologischer Einwand
„Thinking is a function of man’s immortal soul.“ Turing verwirft diesen Einwand mit Inkonsistenzen der Beweisführung dieses theologischen Postulats und der naturwissenschaftlichen Erfahrung, dass manche theologische Postulate sich als falsch herausstellten (Beispiel Geozentrisches Weltbild).

2.) ‚Kopf in den Sand stecken‘-Einwand
“The consequences of machines thinking would be too dreadful. Let us hope and believe that they cannot do so.” Turing sieht diesen Einwand artverwandt zum theologischen Einwand und verwirft ihn, da er zu unbedeutend ist, um ihn ernst zu nehmen.

3.) Der mathematische Einwand
Dieser Einwand bezieht sich auf Gödels Theorem und auch auf Turings eigene Untersuchungen, mittels derer gezeigt werden kann, dass es notwendigerweise Fragen gibt, die Digitalcomputer mit unendlichem Speicher auch nach unendlich langer Zeit nur falsch oder gar nicht beantworten können. Da dies einerseits aber auch für Menschen gelten könnte und andererseits es dann doch wieder eine noch leistungsfähigere Maschine geben kann, die einen Teil der bislang unbeantworteten Fragen, dennoch beantworten kann, schließt Turing, dass der Einwand keine letztendliche Gültigkeit hat und das Imitation-game zumindest eine gute Basis für Diskussionen darstellt.

Damit kann und wird in vielen Veröffentlichungen zu Turings Werk argumentiert, dass somit der Turing-Test (gleichbedeutend mit dem Imitation Game) wertlos sei. Umgekehrt kann der Turing-Test aber gerade aufgrund dessen, dass diese Schwäche auch beim Menschen anzutreffen ist, sogar als sehr wertvoll angesehen werden, da der Test nicht eine universelle Intelligenz in Relation zur menschlichen Intelligenz stellt, sondern eine konkrete, realisierte, künstlichen Intelligenz. So ist zu bedenken, dass diese mathematische Limitation gar keine praktische Limitation darstellt, denn so wie auch das menschliche Denken limitiert ist, können selbst modernste Schach-Programme/Computer aus Kapazitätsgründen nicht den gesamte Suchraum aller potenziellen Züge analysieren. Doch reicht bei leistungsfähigen, modernen Digitalrechnern eine – zumeist auf Heuristik begründete – eingeschränkte Suche durchaus, um diesbezügliche menschliche Fähigkeit zu übertreffen.

4.) Der Bewusstseinseinwand
Hier geht Turing auf das philosophische Problem ein, dass man zwar im Cartesischen Sinne sich nur des eigenen, denkenden Ichs (res cogitans) sicher sein kann und somit erst tatsächlich feststellen könne, ob eine Maschine denkt oder fühlt, wenn man selbst die Maschine ist und damit den privilegierten Zugang zur eigenen Subjektivität hat. Doch bezeichnet er diese These als extrem und darum sei es eher möglich das Imitation-Game als legitimen Test anzunehmen, als sich in die solipsistische Position gezwungen zu sehen. Weiterhin sieht er es bereits als einen Hinweis für die Existenz von Bewusstsein, wenn eine Maschine in Antworten auf Nachfragen vorher getroffene Aussagen begründet – und dazu wäre die von ihm skizzierte FSM in der Lage. Turing räumt allerdings auch ein gewisses Mysterium bezüglich des Bewusstseins ein und dass Versuchen es zu lokalisieren eine gewisse Paradoxie anhafte, dass diese aber nicht unbedingt gelöst werden muss, um die Vorgehensweise des Imitation-Games zu akzeptieren.
Tatsächlich ist dieser Einwand somit lediglich bezüglich der modifizierten Frage des guten Abschneidens beim Imitation Game widerlegt und nicht bezüglich der Frage, ob Maschinen denken können. Vielmehr wurde dieser Einwand später auch mittels Searls chinese room verdeutlicht. Dort wurde zwar eine Teilbeantwortung mittels eine Aufspaltung in schwache und starke KI versucht, da aber diese beiden nicht trennscharf definiert werden (können), bleibt der Einwand somit unwiderlegt.

5.) Der Einwand diverser Unfähigkeiten
In diesem Einwand listet Turing eine ganze Reihe typischer menschlicher Eigenschaften und Fähigkeiten auf, wie beispielsweise reich, humorvoll, initiativ zu sein, oder auch Fehler zu machen. Dem begegnet er in zweierlei Art. Zum einen, dass die Leistungsfähigkeit von Digitalrechnern in Zukunft stark zunehmen wird und diese somit die genannten Fähigkeiten erlernen können, dass aber das übergeordnete Problem dieser Klasse von Einwänden die Fähigkeit ist, Fehler zu machen. Hier unterscheidet Turing zwei Arten von Fehler: Zum einen Funktionsfehler, die konstruktionsbedingt sind, die aber – zumindest theoretisch – ausgeschlossen und somit nicht betrachtet werden müssen, und zweitens Fehler, die sich daraus ergeben, dass der Output einer Maschine eine Bedeutung hat, die inkorrekt ist – ein Fehlschluss. Diese können bei Menschen wie auch bei Maschinen aber schon allein dadurch ‚erreicht‘ werden, indem Induktion bei der Schlussfindung angewendet wird, da diese per se fehlerbehaftet ist.

Dem Argument, dass eine Maschine nicht selbstreferenzierend agieren kann, begegnet er mit der Möglichkeit von selbstmodifizierendem Code in Abhängigkeit der Qualität des durch diesen Code produzierten Outputs und dem Einwand, dass Maschinen einen eingeschränkten Tätigkeitsbereich haben, führt er auf technische Limitationen zurück die – wie oben – mit fortschreitender Leistungsfähigkeit irrelevant werden.
In Summe zieht er für diese Klasse von Einwänden bezüglich der diversen Einwänden eine Parallele zum bereits betrachteten Bewusstseinseinwand, wie es auch für den folgenden gelten kann, in dem es letztendlich um das vermutete Fehlen von Kreativität bei einer FSM geht.

6.) Der LadyLovelaces-Einwand
Begründet werden diese Zweifel mittels eines Zitats der berühmten, britischen Mathematikerin Ada Lovelace, die an der Entwicklung einer ‚Analytical Engine‘ arbeitete und die Fähigkeit, dieser – nie fertiggestellten – Maschine erkannte, dass sie nicht nur, wie geplant, lediglich Zahlen verarbeiten könne, sondern auch generell Symbole.
Doch laut Turing könne es sein, dass Ada Lovelace nicht erkannte, dass eine Analytical Engine, als eine FSM, ebenso wie ein Digitalrechner, die noch weitergehende Eigenschaft des Lernens als Basis für eigenständiges Denken haben könnte. Da Originalität nicht genau spezifiziert werden kann, schlägt Turing die Umformulierung von Originalität in Lernfähigkeit vor. Damit formuliert Turing den Einwand erst um, dass Maschinen doch – möglicherweise – durch Lernen Neues erschaffen könnten und später, da auch Lernfähigkeit schwer zu definieren ist, dass Originalität durch die Fähigkeit Menschen überraschen zu können ersetzt werden kann. Diese Aussage könne quantifizierbar angegangen werden, da die abweichenden Ergebnisse bei Berechnungen – einmal absolut korrekt von einer Maschine und ein andermal parallel nicht ganz so perfekt von einem Menschen – zu Überraschungen führen. Diese Modifikation des Begriffes ‚Originalität‘ in ‚Fähigkeit zu überraschen‘ sieht Turing einerseits als illegitim, da ja die Überraschung möglicherweise nur durch den Denkvorgang im Menschen entstehen könnte, aber andererseits könnte es wiederum ja auch sein, dass die Maschine ein Bewusstsein hätte, die diesen Überraschungseffekt bedachte.
In Summe sieht Turing einen weit verbreiteten Trugschluss darin, dass das bloße Erarbeiten von Schlüssen anhand von Daten und klaren Regeln keinen Wert hätte, da der Geist, auch wenn er alle Daten und klaren Regeln hat, nicht unmittelbar alle sich daraus ableitbaren Rückschlüsse ziehen kann. Somit könne ein Digitalrechner Menschen überraschen, indem er diese, für Menschen nicht sofort ersichtlichen und darum überraschenden Ergebnisse liefern könne.

Da aber auch hier mehrfach gewandelte Aufgabenstellungen (nicht Denkfähigkeit von Maschinen und nicht Originalität, sondern Fähigkeit zur Überraschung) analysiert werden, kann man argumentieren, dass der Einwand bestehen bleibt.

7.) Der Einwand über die Stetigkeit innerhalb des Nervensystems
Dieser Einwand besagt, dass ja eine FSM keine stetigen Zustände und somit auch das Nervensystem nicht exakt nachbilden könne. Das gesteht Turing ein, besagt aber, dass es für das Imitiation Game keine Rolle spielen würde, da eine FSM mit diskreten Zuständen zwar nicht exakt das gleiche Ergebnis wie eine stetiges System erzeugen könne, aber doch sehr nahe liegen würde und somit die Person C diese Unterschiede in den Antworten nicht auseinander halten könne. Die originäre Frage nach Denkfähigkeit einer diskreten Maschine im Unterschied zum Nervensystem mit Stetigkeit bei elektrischen wie auch chemischen Vorgängen, bleibt somit bezüglich der Frage 1. auch hier offen.

8.) Der Einwand über die Unbestimmbarkeit des Verhaltens
Der Einwand lautet, dass es unmöglich ist alle Regeln festzustellen, nach denen ein Mensch agiert, aber bei einer Maschine muss man eindeutige Regeln eingeben, die diese abarbeitet, darum kann eine Maschine nie identisch agieren wie ein Mensch. Turing dreht das Argument um, indem er die Tatsache, dass man nicht alle Regeln, nach denen ein Mensch agiert finden kann, nicht bedingt, dass es diese endliche Zahl von Regeln definitiv nicht gibt. Und wenn es dieses endliche Set von Regeln gäbe, dann wäre der Mensch nur eine komplexe FSM, deren Verhalten prinzipiell genauso vorhersehbar wäre, wie das eines Digitalrechners. Damit ist das Verhalten von Menschen und gut programmierten Digitalrechnern prinzipiell ununterscheidbar.

9.) Der Einwand der übersinnlichen Wahrnehmung
Hier zieht Turing in Betracht, dass Wahrsagen, Präkognition, Psycho-Kinese und – aufgrund empirischer Versuche – vor allem Telepathie durchaus das Ergebnis des Imitation-Games beeinträchtigen und auch in einer noch unbekannten Weise zur menschlichen Intelligenz gezählt werden könnten. Aber da sich wissenschaftlich fundierte Untersuchungen für diese Art der Wahrnehmung per Definition ausschließen, besteht keine Möglichkeit, deren Einfluss systematisch zu bestimmen. Turing schlägt zur Vermeidung dieses unbestimmbaren Einflusses einen ‚Telepathie-sicheren-Raum‘ raum vor. Dieser ist aber solange nicht realisierbar, solange man die Wirkungsweise dieser vermuteten Wahrnehmung nicht kennt.

Abschließend kann man feststellen, dass Turing erstaunliche Weitsicht bewies, auch heute noch lange nicht gelöste Probleme der künstlichen Intelligenz herausarbeitete und überraschend gute – und damit doch auch intelligente 🙂 – Abschätzungen der Fortschritte in der Computerentwicklung machte.

Es bleibt weiterhin offen, wie man die Frage nach Intelligenz ganzheitlich beantworten sollte. Sowohl die Mehrdeutigkeit des Begriffes, als auch die deutlich unterschiedlichen Ansätze zur Nachbildung zeigen keine singuläre, ganzheitliche Lösungsmöglichkeit. Lassen sich Einwand 1), 2) und 9) noch mit dem Argument der Unwissenschaftlichkeit ad-acta legen, so führen die Einwände 4), 5) und 6) letztendlich zu der Frage nach Bewusstsein, und die Einwände 3), 7) und 8) verweisen auf ein Komplexitätsargument – beides Forschungsgegenstände der aktuellen KI. Wie und warum kann Bewusstsein entstehen, indem nicht-bewusste Materie auf eine bestimmte komplexe Weise zusammensetzt wird? Dazu gibt es eine Reihe von Erklärungsversuchen (Integrierte Informationstheorie = Bewusstsein entsteht, wenn nur genügend Information zusammengetragen wird; orchestrierte objektive Reduktion = Bewusstsein entsteht auf der Quantenebene in den Neuronen des Gehirns; Embodiment = Bewusstsein benötigt die Wechselwirkung von Körper und Kognition, …) und unterschiedliche Definitionen, was Bewusstsein ausmacht (Vigilanz-, Zustands-, Handlungs-, Selbstbewusstsein, kognitives oder phänomenales Bewusstsein) . Doch das ist weiterhin ungelöst und die Frage nach der Definition, Rekonstruktion und nicht-solipsistischen Erkennbarkeit von Bewusstsein in seiner Komplexität mehr denn je Gegenstand der KI-Forschung.

Es ist also kein einzelner Einwand aus der Gruppe von neun Einwänden als ‚der stärkste‘ zu benennen, vielmehr verbleibt die von Turing ganz zu Anfang gestellte Frage ‚können Maschinen denken‘ trotz einer Vielzahl bemerkenswerter Fortschritte der letzten Jahre unbeantwortet. Turing lässt am Ende seines Artikels offen, welchen weiteren Forschungsansatz man wähle soll; ob es besser ist abstrakte Aktivitäten wie das Schachspielen nachzubilden oder lernfähige Maschinen mit komplexer Sensorik und Sprachverständnis erforscht werden sollten. Er sieht beide Wege als vielversprechend an.

Literaturverzeichnis
Descartes, R. (2009). Meditationen Mit sämtlichen Einwänden und Erwiderungen, Übersetzt und herausgegeben von Christian Wohlers. Hamburg: Felix Meiner Verlag.
Searle, J. R. (1984). MINDS BRAINS AND SCIENCE. Cambridge, Massachusetts, USA: HARVARD UNIVERSITY PRESS.
Turing, A. (Oktober 1950). Computing Machinery and Intelligence. Mind Vol LIX, No. 236, S. pp. 433–460. doi:https://doi.org/10.1093/mind/LIX.236.433
Wendland, P. D. (2021). Bewusstsein von Maschinen: Was Menschen glauben und Maschinen tun. Aalen: Institut für Technikfolgeabschätzung und Systemanalyse (ITAS).

Verfasser: Lothar Reiter

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert