Benutzer:Phil Buchenrauch/Philosophie der Künstlichen Intelligenz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Gegenstand der Philosophie der künstlichen Intelligenz (KI) sind die philosophischen Fragen, die sich aus der Erforschung, der Entwicklung und dem Einsatz von künstlicher Intelligenz (KI) ergeben. Bei den grundsätzlichen Fragen, ob Maschinen überhaupt Intelligenz, Bewusstsein, mentale Zustände oder Emotionen haben können oder welche Grenzen dafür bestehen, gibt es enge Verbindungen zur Philosophie des Geistes und der Philosophie der Kognition. Konzepte wie Funktionalismus und Reduktionismus, die zunächst für die Erklärung der menschlichen Erkenntnis- und Erlebnisfähigkeit entwickelt wurden, werden hier auf die Fähigekeiten von Maschinen angewendet.

Die Ethik der Künstlichen Intelligenz untersucht die mit dem Einsatz von KI-Systemen verbundenen ethischen Fragen: die Rolle von KI-Systeme in der Gesellschaft, ethischen Werte für Entwicklung und Einsatz von KI-Systemen und Möglichkeiten des ethischen Verhaltens von KI-Systemen (Maschinenethik).

Geschichtlicher Überblick

[Bearbeiten | Quelltext bearbeiten]

Den Begriff „künstliche Intelligenz“ prägte John McCarthy 1955 im Antrag für die Dartmouth Conference: „Das Seminar soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern.“[1]

Die Fragen „Was ist Denken?“, „Was ist Intelligenz?“ und „Sind denkende, intelligente Maschinen möglich?“ wurden schon in der der antiken Philosophie und dann wieder in der Aufklärung untersucht. Neu waren in der Mitte des 20. Jahrhunderts die weitreichenden Möglichkeiten elektronischer Computer und die zwischen 1850 und 1940 entwickelten Konzepte der mathematischen Logik und der Metamathematik. In den 1930er Jahren hatten Alonzo Church, Stephen Cole Kleene und Alan Turing unabhängig voneinander unterschiedliche Definitionen für den Begriff der berechenbaren Funktion veröffentlicht, d. h. für Funktionen, die nach einem Algorithmus (Berechnungsanweisung) berechnet werden können. Als sich die unterschiedlichen Definitionen als äquivalent herausstellten, setzte sich die Überzeugung durch, dass damit die Klasse der intuitiv berechenbaren Funktionen und der Algorithmenbegriff exakt erfasst wurden (Church-Turing-These). Wie sich später zeigte, stellte Turings Definition mit Hilfe der abstrakten Turingmaschine ein theoretisches Modell bereit für die in den 1940er Jahren entstehenden elektronischen Computer. Es war damit möglich, die Leistungsfähigkeit der Computer mit mathematischen Methoden zu untersuchen. Ein Computer wäre in der Lage, jede berechenbare Funktion zu berechnen, sofern sein Speicher beliebig erweiterbar wäre.

Alan Turing war der erste, der sich mit der Frage beschäftigte, ob Computer eine dem Menschen vergleichbare Intelligenz haben können.

Symbolhypothese, Symbol-Paradigma der KI <==> Truingmaschine arbeitet auch nur mit Zeichen.

Hubert Dreyfus#Kritik von Dreyfus an der KI 1972 ff.

Können Maschinen Bewusstsein und mentale Zustände haben? Chinesisches Zimmer 1980 - schwache und starke KI

Kurt Gödels Unvollständigkeitssatz: Gibt es Grenzen der Symbolhypothese? Ist die menschliche Intelligenz einer rein auf Symbolmanipulation beruhenden Maschine überlegen?

Argumentation von John Lucas und Roger Penrose, Mathematisches Argument

Konnektionistisches Paradigma

Bereits im 4. Jahrhundert v.u.Z. formulierte Aristoteles Regeln des logischen Schließens, die Syllogismen. Sie haben die Form „Wenn (Prämisse 1) und (Prämisse 2), so notwendig (Konklusion)“ , wie z.B. „Wenn alle Menschen sterblich sind und alle Griechen Menschen sind, dann sind notwendig alle Griechen sterblich“. Entscheidend ist dabei, dass diese Regeln nicht vom Inhalt der Subjekte und Prädikate abhängt, sondern allein von ihrer Stellung in den Aussagen. Sie sind in diesem Sinne formale Schlussregeln, die Gültigkeit eines logischen Schlusses kann mechanisch überprüft werden. Aristoteles' syllogistischer Ansatz wurde erst durch die Integration der Logik in die Mathematik, im Gefolge der Arbeiten von George Boole und Gottlob Frege im 19. und frühen 20. Jahrhundert abgelöst.

Eine andere Leistung der griechischen Antike mit großem Einfluss war Euklids Ansatz zur Formalisierung des (mathematischen) Denkens. Euklids Elemente zeigen erstmals musterhaft den Aufbau einer exakten Wissenschaft, der Geometrie, da die meisten Aussagen aus einem begrenzten Vorrat von Definitionen, Postulaten und Axiomen hergeleitet und bewiesen werden. Dieses Vorgehen beeinflusste bis heute nicht nur die Mathematiker, sondern auch viele Physiker, Philosophen und Theologen.


ist ein Teilgebiet der Technikphilosophie, das sich mit den erkenntnistheoretischen Grundlagen der KI, ihren Möglichkeiten und Grenzen sowie ihren Auswirkungen auf die Gesellschaft befasst.

Themen der KI-Philosophie

[Bearbeiten | Quelltext bearbeiten]

„Künstliche Intelligenz ist wahrscheinlich einzigartig unter den technischen Disziplinen, da sie sehr grundlegende Fragen über die Natur des Rechnens, der Wahrnehmung, des Denkens, des Lernens, der Sprache, des Handelns, der Interaktion, des Bewusstseins, des Menschen, des Lebens usw. usw. aufgeworfen hat – und gleichzeitig hat sie wesentlich zur Beantwortung dieser Fragen beigetragen (tatsächlich wird sie manchmal als eine Form der empirischen Forschung angesehen). Es gibt also eine beachtliche Tradition von Arbeiten, sowohl von Philosophen über KI als auch von Theoretikern innerhalb der KI selbst.“

Vincent C. Müller: Introduction: Philosophy and Theory of Artificial Intelligence[2]

Die Philosophie der künstlichen Intelligenz sucht Antworten auf Fragen wie die folgenden:[3]:1176

Die Philosophie der Künstlichen Intelligenz hat enge Verbindungen zur Philosophie des Geistes und der Philosophie der Kognition sowie zu den Konzepten des Funktionalismus, Reduktionismus und Konnektionismus und des subjektiven Erlebnisgehalts (Qualia).

Eine enge Beziehung der KI zur Philosophie rührt auch daher, dass viele Formalismen und Techniken der KI aus der Philosophie stammen: Aussagenlogik, Prädikatenlogik und ihre Erweiterungen: Modallogik für die Modellierung von Möglichkeit und Notwendigkeit; Deontische Logik für die Modellierung von Gebot, Verbot und Erlaubnis; Induktive Logik für das Schließen von einzelnen Beobachtungen auf allgemeine Aussagen; Doxastische Logik für die Modellierung des Glaubens und Meinens; außerdem die philosophische Interpretation von Wahrscheinlichkeit, Konzepte der Praktische Intelligenz und das Planen von Handlungen.

Die Ethik der künstlichen Intelligenz ist der Teilbereich der Technikethik, der sich speziell mit KI-Systemen befasst. Ihre Themenbereiche sind:[4]

  • die Rolle von KI-Systeme in der Gesellschaft und ethische Werte, die ihrem Einsatz zugrunde liegen
  • ethische Normen für Menschen, die künstliche intelligente Systeme entwerfen, herstellen, testen, zertifizieren und benutzen
  • ethisches Verhalten von KI-Systemen (Maschinenethik)

Schwache KI und starke KI

[Bearbeiten | Quelltext bearbeiten]

Die Behauptung, dass Maschinen agieren könnten, als ob sie intelligent wären, wird als schwache KI-Hypothese bezeichnet.[3]:1176 Der Antrag für die Dartmouth Conference behauptete bereits 1956, dass schwache KI möglich ist: „Die Studie geht von der Annahme aus, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine in der Lage ist, ihn zu simulieren.“[5]

Die starke KI-Hypothese behauptet, KI kann wirklich denken und nicht nur Denken simulieren, „der Computer [ist] nicht nur ein Werkzeug für die Erforschung des Geistes; vielmehr ist der richtig programmierte Computer wirklich ein Geist, in dem Sinne, dass Computer mit den richtigen Programmen buchstäblich verstehen und andere kognitive Zustände haben.“[6]:417

Können Maschinen denken?

[Bearbeiten | Quelltext bearbeiten]

Die Frage „Können Maschinen denken?“ behandelte Alan Turing 1950 in seiner Arbeit Computing Machinery and Intelligence.[7] Wegen der Schwierigkeit, „denken“ klar zu definieren, schlägt er vor, die Frage durch einen Verhaltens-Intelligenztest zu ersetzen, der heute allgemein als Turing-Test bezeichnet wird: Ein Fragesteller unterhält sich schriftlich mit zwei ihm unbekannten Gesprächspartnern, einem Menschen und einem Computer. Nach fünf Minuten muss der Fragesteller entscheiden, wer der Mensch und wer der Computer ist. Turing erwartet, „dass es in etwa fünfzig Jahren möglich sein wird, Computer … so zu programmieren, dass sie das Imitationsspiel [, den Turing-Test] so gut spielen können, dass ein durchschnittlicher Fragesteller nach fünf Minuten Befragung nicht mehr als 70 Prozent Chance hat, die richtige Identifizierung vorzunehmen.“[7] Die Maschine besteht den Test also, wenn sie den Fragesteller in 30% der Fälle täuschen kann. Das Ergebnis hängt nicht davon ab, ob der Computer die Fragen richtig beantwortet, sondern nur davon, wie sehr seine Antworten denen eines Menschen ähneln. Wie Turing nachweist, genügt es, ausschließlich Computer als intelligente Maschinen zu betrachten.[7]

Turing untersucht in seiner Arbeit ein Reihe denkbarer Einwände gegen die Möglichkeit intelligenter Maschinen, darunter fast alle Argumente, die in den nächsten 50 Jahren tatsächlich vorgebracht wurden.

Argumente von der Form „Maschinen werden niemals x können“

[Bearbeiten | Quelltext bearbeiten]

Turing fasst unter dieser Überschrift folgende Einwände zusammen: Maschinen können nicht freundlich, einfallsreich oder initativ sein; Maschinen können keinen Humor haben, nicht richtig von falsch unterscheiden und keine Fehler machen; Maschinen können nicht aus Erfahrungen lernen, nicht Wörter korrekt anwenden und nichts wirklich Neues tun. Turing hält diese Argumente für weitgehend unbegründet.[7]. Aus der heutigen Perspektive urteilen Russell und Norvig: „Es ist offensichtlich, dass Computer viele Dinge genauso gut oder besser als Menschen können, unter anderem auch Dinge, von denen die Menschen glauben, es wäre sehr viel Verstand und Wissen für die Ausführung erforderlich.“[3]:1178

Argument der Formlosigkeit des Verhaltens

[Bearbeiten | Quelltext bearbeiten]

Im Wesentlichen handelt es sich bei diesem Argument um die Behauptung, dass das menschliche Verhalten viel zu komplex ist, als dass es durch eine einfache Regelmenge abgedeckt werden könnte, und weil Computer nichts weiter tun, als Regelmengen zu folgen, können sie kein Verhalten erzeugen, das so intelligent wie das der Menschen ist. Die Unfähigkeit, alles in einer Menge logischer Regeln auszudrücken, wird auch als Qualifizierungsproblem der KI bezeichnet.[3]:1180 Der wichtigste Vertreter dieses Arguments ist Hubert Dreyfus. In seinen einflussreichen Büchern What Computers Can’t Do: The Limits of Artificial Intelligence[8] und What Computers Still Can’t Do: A Critique of Artificial Reason[9] bezweifelt er, dass eine Maschine gesunden Menschenverstand (englisch common sense) haben kann. Er vertritt hingegen die Ansicht, dass menschliche Intelligenz und Expertise vor allem auf schnellen intuitiven Urteilen beruht und nicht auf schrittweiser symbolischer Manipulation, Menschen arbeiten mit einem „ganzheitlichen Kontext“.

In Mind over machine – the power of human intuition and expertise in the era of the computer[10] schlägt er gemeinsam mit seinem Bruder, dem Informatiker Stuart Dreyfus, einen fünf Phasen umfassenden Prozess für das Sammeln von Erfahrungen vor, der mit einer regelbasierten Verarbeitung (analog der Hypothese über physische Symbolsysteme) beginnt und mit der Fähigkeit, die richtigen Antworten unmittelbar auszuwählen, endet. Dabei weisen sie auf eine Reihe von Problemen hin, die Maschinen nach ihrer Ansicht nicht leisten können: Verallgemeinerung von Beispielen, Lernen in neuronalen Netzen ohne externen Trainer, Lernalgorithmen für große Merkmalsmengen und die Fähigkeit des menschlichen Gehirns, Sensoren so auszurichten, dass in der gegebenen Situation relevante Informationen gesucht und verarbeitet werden.[3]:1181 „Insgesamt sind viele der Aspekte, auf die sich Dreyfus konzentriert hat – Hintergrundwissen, das Qualifikationsproblem, Unsicherheit, Lernen, kompilierte Arten der Entscheidungsfindung – in der Tat wichtige Fragen und sie werden inzwischen beim Standardentwurf intelligenter Agenten berücksichtigt. Unserer Meinung nach ist dies der Beweis für den Fortschritt der KI, nicht für ihre Unmöglichkeit“[3]:1182

Mathematisches Argument

[Bearbeiten | Quelltext bearbeiten]

Das mathematische Argument, es gibt Grenzen für Maschinen, denen der menschliche Verstand nicht unterliegt, stützt sich auf Resultate der mathematischen Logik, aus denen folgt, dass es Grenzen für die Fähigkeiten von Digitalrechnern gibt. Am bekanntesten ist der Gödelsche Unvollständigkeitssatz. Gödel hatte 1931 gezeigt, dass man in einem widerspruchsfreien formalen System – das die Arithmetik der natürlichen Zahlen enthält – immer eine Aussage (sog. Gödel-Aussage) konstruieren kann, die wahr ist, aber in diesem System weder formal bewiesen noch widerlegt werden kann. Ähnliche Ergebnisse stammen von Alonzo Church[11] und von Alan Turing[12]. In dieser Arbeit zum Halteproblem beweist Turing das folgende paradoxe Ergebnis: Wenn es eine Turingmaschine T gäbe, die für jede beliebige andere Turingmaschine entscheiden könnte, ob sie bei gegebenen Anfangswerten zu einem Ende kommt oder endlos weiterläuft, dann könnte man für sie eine „pathologische“ Maschine P konstruieren, die anhält, wenn T die Haltefrage mit „Nein“ beantwortet, und die endlos weiterläuft, wenn T sie mit „Ja“ beantwortet.

Gödel selbst hat 1951 in einem Vortrag aus dem Unvollständigkeitssatz die Schlussfolgerung abgeleitet:

  • (a) Entweder der menschliche Geist ist keine konsistente endliche Maschine oder
  • (b) Es existieren diophantische Gleichungen, für die nicht entschieden werden kann, ob es Lösungen für sie gibt.

Da ihm (b) unplausibel schien, glaubte er, dass der menschliche Geist nicht mit einer endlichen Maschine gleichzusetzen ist, war sich aber bewusst, dass sich eine solche Behauptung niemals beweisen lässt.[13]

Argumentattion von John Lucas

[Bearbeiten | Quelltext bearbeiten]

Der britische Philosoph John Randolph Lucas stellte 1959 in seinem Vortrag Minds, Machines and Gödel[14] die Behauptung auf, dass Maschinen dem Menschen mental unterlegen sind, weil Maschinen wie formale Systeme durch den Unvollständigkeitssatz beschränkt sind, während Menschen keinen solchen Einschränkungen unterliegen. In seiner Argumentation geht Lucas von der korrekten Annahme aus, dass jede Maschine im Prinzip durch ein formales System dargestellt werden kann.

  • Lucas’ These war von Beginn an umstritten und verursachte jahrzehntelange Debatten. Die Einwände gegen das Lucas’sche Argument setzen bei der Konsistenz des menschlichen Verstands an, die Lucas voraussetzen muss, um den Unvollständigkeitssatz anwenden zu können. Da aber ein formales System seine eigene Konsistenz nicht beweisen kann, wie Gödel ebenfalls gezeigt hat, bleibt diese wesentliche Voraussetzung offen. Viele Kritiker erkennen auch gute Gründe, den menschlichen Verstand für inkonsistent anzusehen. Lucas hat diesen Einwand akzeptiert und sich auf den Standpunkt zurückgezogen: „[Vielleicht] müssen wir unsere eigene Konsistenz voraussetzen, wenn Denken überhaupt möglich sein soll. Sie ist, vielleicht wie die Gleichförmigkeit der Natur, nicht etwas, das am Ende einer sorgfältigen Argumentationskette festgestellt werden kann, sondern eine notwendige Annahme, die wir machen müssen, wenn wir überhaupt mit dem Denken beginnen wollen.“[15]
  • Paul Benacerraf wies darauf hin, dass die Konstruktion einer Gödel–Aussage für ein formales System ein tiefes Verständnis des Systems voraussetzt. Darüber hinaus ist das formale System, das den menschliche Verstand darstellen könnte, wahrscheinlich so komplex, dass wir vielleicht nie die Einsicht in seinen Charakter erhalten, die wir brauchen, um eine Gödel–Aussage dafür zu konstruieren.[16]

Argumentation von Roger Penrose

[Bearbeiten | Quelltext bearbeiten]

Roger Penrose publizierte seine Ansichten zum Thema Bewusstsein und Überlegenheit des menschlichen Denkens über den Computer erstmals 1989 in „The Emperor’s New Mind“[17] Darin argumentierte er: Obwohl nach dem Gödelschen Unvollständigkeitssatz ein (hinreichend ausdrucksfähiges) formales System seine eigene Konsistenz nicht beweisen kann, sind menschliche Mathematiker in der Lage, die Richtigkeit von im System nicht ableitbaren Aussagen zu beweisen. Für ihn bedeutet diese Diskrepanz, dass menschliche Mathematiker nicht als formale Systeme beschreibbar sind und keinen Algorithmus ausführen, sodass die Computertheorie des Geistes falsch ist. Er stellt die Hypothese auf, dass die Quantenmechanik eine wesentliche Rolle für das Verständnis des menschlichen Bewusstseins spielt. In dem 1994 veröffentlichten Buch Shadows of the Mind[18] stellt er folgende Hypothesen auf:

  • Das menschliche Bewusstsein ist nicht algorithmisch und kann daher nicht von einem herkömmlichen digitalen Computer vom Typ Turing-Maschine modelliert werden.
  • Die Quantenmechanik spielt eine wesentliche Rolle für das Verständnis des menschlichen Bewusstseins; insbesondere ist er der Ansicht, dass Mikrotubuli in Neuronen Quantenüberlagerungen unterstützen (siehe auch Thesen zum Quantenbewusstsein).
  • Der objektive Kollaps der Wellenfunktion der Mikrotubuli ist entscheidend für das Bewusstsein.
  • Bei diesem Kollaps handelt es sich um ein physikalisches Verhalten, das nicht algorithmisch ist und die Grenzen der Berechenbarkeit überschreitet.
  • Aufgrund dieses Mechanismus der nicht berechenbaren Physik verfügt der menschliche Geist über Fähigkeiten, die keine Turing-Maschine besitzen könnte.

Die Orchestrated Objective Reduction genannte Theorie zum Quantenbewusstsein entwickelte Penrose gemeinsam mit dem amerikanischen Arzt Stuart Hameroff. Sie kombiniert Ansätze aus der Molekularbiologie, den Neurowissenschaften, der Pharmakologie, der Philosophie, der Quanteninformationstheorie und der Quantengravitation.[19] Penroses Theorie wird kontrovers diskutiert.[20][21][22]

Können Maschinen Bewusstsein und mentale Zustände haben?

[Bearbeiten | Quelltext bearbeiten]

In der Philosophie des Geistes vertritt der Funktionalismus die These, dass mentale Zustände funktionale Zustände sind: Auf einen bestimmten Input reagiert das System in Abhängigkeit vom aktuellen Zustand mit einem bestimmten Output und geht in einen anderen funktionalen Zustand über. Nach dieser Theorie haben zwei Systeme mit isomorphen Prozessen dieselben mentalen Zustände, so dass auch ein Computerprogramm dieselben mentalen Zustände wie eine Person haben kann. Einer der einflussreichsten Kritiker dieser Auffassung ist der amerikanische Philosoph John Searle. Um seine Ansicht zu unterstützen, entwirft er das Gedankenexperiment des Chinesischen Zimmers.[6] Das Chinesische Zimmer ist ein hypothetisches System, das ein Programm ausführt und den Turing-Test besteht, aber nach Searles Überzeugung keine seiner Eingaben und Ausgaben versteht und deshalb keine mentalen Zustände und kein Bewusstsein haben kann. Die anhaltende Kontroverse über dieses Experiment beginnt bereits im Orginalartikel, der Kommentare von mehr als 20 Peer-Reviewern und Searles Erwiderungen darauf enthält.

Das Experiment des Chinesischen Zimmers

[Bearbeiten | Quelltext bearbeiten]

Für das Experiment stützt sich Searle auf das sprachwissenschaftliche Skript-Konzept von Roger Schank,[23] das die menschliche Fähigkeit simuliert, Geschichten zu verstehen und Frage darüber zu beantworten, auch wenn die gefragte Information nicht explizit in der Geschichte erwähnt wird.

Searle, der weder chinesische Schrift noch Sprache beherrscht, stellt sich vor, er sei in ein Zimmer eingeschlossen. Im Zimmer findet er einen Stapel chinesischer Schriftstücke (Skript), einen Stapel englisch geschriebene Regeln (Programm) und einen chinesischen Text (Story). Die Regeln „ermöglichen es mir, eine Gruppe von formalen Symbolen mit einer anderen Gruppe von formalen Symbolen in Beziehung zu setzen, und ‹formal› bedeutet hier, dass ich die Symbole ausschließlich anhand ihrer Form identifizieren kann. Nehmen wir nun an, ich erhalte einen dritten Stapel chinesischer Symbole [Fragen] zusammen mit einigen Anweisungen, wiederum in englischer Sprache, die es mir ermöglichen, Elemente dieses dritten Stapels mit den ersten beiden Stapeln zu verknüpfen, und diese Regeln leiten mich an, wie ich bestimmte chinesische Symbole mit bestimmten Formen zurückgeben kann als Antwort auf bestimmte Formen, die mir in dem dritten Stapel gegeben werden. … Nehmen wir außerdem an, dass ich nach einer Weile so gut darin werde, die Anweisungen zur Manipulation der chinesischen Symbolen zu folgen …, dass sie von außen betrachtet, also d. h. aus der Sicht von jemandem außerhalb des Raumes, in dem ich eingesperrt bin, meine Antworten auf die Fragen von denen chinesischer Muttersprachler absolut nicht zu unterscheiden sind. Niemand, der sich meine Antworten ansieht, kann erkennen, dass ich kein einziges Wort Chinesisch spreche.“[6]:418 Searle im Chinesischen Zimmer hätte den Turing-Test bestanden, und die starke KI würde behaupten, dass er chinesische Texte verstanden hat.

Searles Argumente gegen Starke KI

[Bearbeiten | Quelltext bearbeiten]

Aus dem Experiment des Chinesischen Zimmers zieht Searle folgende Schlüsse:[24]

  1. Der Mann im Zimmer führt rein formale Symbolmanipulation durch, er verhält sich wie ein Computer. Ein digitaler Computer, auf dem ein äquivalentes Programm zum Verstehen von Chinesisch implementiert wäre, würde dann ebenso wenig Chinesisch verstehen.
  2. Der Verstand (Geist englisch minds) hat einen mentalen oder semantischen Inhalt. Um zu denken oder eine Sprache zu verstehen muss man mehr als nur die Syntax kennen, man muss eine Bedeutung, einen gedanklichen Inhalt mit den Wörtern oder Zeichen verbinden.
  3. Die Syntax allein ist weder ausreichend noch konstitutiv für Semantik. Rein formale, syntaktisch definierte Symbolmanipulationen garantieren nicht von sich aus eine Verbindung mit einem Gedankeninhalt.
  4. „Schlussfolgerung: Implementierte Programme sind nicht konstitutiv für den Geist. Starke KI ist falsch.“

„Solange das Programm in Form von Rechenoperationen auf rein formal definierten Elementen beschrieben wird, legt das Beispiel nahe, dass diese für sich genommen keine interessierende Verbindung zum Verstehen haben. Sie sind sicherlich keine hinreichenden Bedingungen, und es wurde nicht der geringste Grund für die Annahme genannt, dass sie notwendige Bedingungen sind oder dass sie sogar einen signifikanten Beitrag zum Verstehen leisten. … Der programmierte Computer versteht, was ein Auto und ein Tischrechner verstehen, nämlich exakt nichts. Das Verstehen des Computers ist nicht partiell oder unvollständig; es ist Null.“

John Searle: Minds, Brains, and Programs[6]

Kritik an Searle

[Bearbeiten | Quelltext bearbeiten]
  1. System-Argument: Der Mann im Zimmer ist nur eine Komponente (der Hauptprozessor) eines größeren Systems, zu dem auch das Skript, Notizzettel als Zwischenspeicher und das Programm gehören. „Searle im Zimmer“ versteht kein Chinesisch, aber das ganze System versteht Chinesisch. Searle entgegnet, wenn er die Anweisungen und die Datenbasis auswendig lernen und alle Berechnungen in seinem Kopf ausführen würde, dann wäre er das gesamte System und würde trotzdem kein Chinesisch verstehen, weil er den formalen Symbolen keine Bedeutung zuordnen könne. Die Erwiderung, dass der Englisch sprechende Searle nicht für den mit chinesischen Schriftzeichen hantierenden Searle im Zimmer sprechen könne, weist er zurück.
  2. Roboter-Argument: Wenn, wie Searle annimmt, Verstehen eine Beziehung von Symbolen zur Außenwelt (Intentionalität) voraussetzt, dann müsste Searle, eingebaut in einen Roboter mit Sinnesorganen und Bewegungsfähigkeit, echtes Verstehen und andere mentale Zustände haben. Searle erwidert: „Das Hinzufügen solcher ‚sensorischen‘ und ‚motorischen‘ Fähigkeiten fügt dem Verstehen im Besonderen oder Intentionalität im Allgemeinen nichts hinzu. … Ich hantiere nur mit formalen Symbolen: Ich weiß nichts über diese anderen Tatsachen. Ich empfange ‚Informationen‘ vom ‚Wahrnehmungsapparat‘ des Roboters, und ich erteile ‚Anweisungen‘ an seinen motorischen Apparat, ohne irgendeine dieser Tatsachen zu kennen. … der Roboter hat überhaupt keine mentalen Zustände.“[6]:420
  3. Gehirn-Simulator: Wenn man ein Programm entwickelte, das das Feuern der Synapsen im Gehirn exakt nachbildete, dann sollte es auch Chinesisch verstehen. Searle versucht, dieses Argument ins Lächerliche zu ziehen: Man könne sich ja gleich ein System aus Wasserrohren und Ventilen vorstellen, das von einem Programm gesteuert wird. „Solange es nur die formale Struktur der Abfolge des Feuerns der Neuronen an den Synapsen simuliert, hat es nicht das simuliert, was das Gehirn ausmacht, nämlich seine kausalen Eigenschaften, seine Fähigkeit, intentionale Zustände zu erzeugen.“[6]:421
  4. Kombiniertes Argument: Man stelle sich einen Roboter mit einem Computer im Inneren vor, der das Gehirn mit all seinen Synapsen nachbildet. Searle akzeptiert, dass man diesem System Intentionalität zuschreiben würde, solange man nichts über sein Inneres weiß. Wenn man aber weiß, dass in diesem System nur bedeutungslose Symbole manipuliert werden, dann kann man ihm keine intentionalen Zustände zuschreiben. Anders ist die Situation bei Primaten oder Haustieren. „Wir können das Verhalten der Tiere nicht erklären, ohne ihnen Intentionalität zuzuschreiben, und wir können sehen, dass die Tiere aus ähnlichem Material bestehen wie wir … [deshalb] nehmen wir an, dass das Tier mentale Zustände haben muss, die seinem Verhalten zugrunde liegen, und dass diese mentalen Zustände durch Mechanismen erzeugt werden müssen, die aus dem gleichen Material stammen wie bei uns.“[6]:421 Richard Rorty bemerkt: Searle weiß im Voraus, dass „nur etwas, das die gleichen kausalen Kräfte wie das Gehirn hat, Intentionalität haben kann“.[6]:446 Andere ordnen diese Auffassung dem biologischen Naturalismus zu.[3]:1188

Ethik der Künstlichen Intelligenz

[Bearbeiten | Quelltext bearbeiten]

Die Ethik der künstlichen Intelligenz ist der Teilbereich der Technikethik, der sich speziell mit künstlich intelligenten Systemen befasst. Sie beschäftigt sich auf der einen Seite mit dem moralischen Verhalten von Menschen, die künstlich intelligente Systeme entwerfen, herstellen, nutzen und behandeln, und auf der anderen Seite mit dem Verhalten von Maschinen, der Maschinenethik. Dazu gehört auch die Frage einer möglichen Singularität aufgrund einer superintelligenten KI.

Akteure der KI-Philosophie

[Bearbeiten | Quelltext bearbeiten]
  • Selmer Bringsjord, Naveen Sundar Govindarajulu: Artificial Intelligence. In: The Stanford Encyclopedia of Philosophy (Fall 2022 Edition). Edward N. Zalta, Uri Nodelman, abgerufen am 23. März 2023 (englisch, Related Entries verweisen auf weitere relevante Artikel).
  • Larry Hauser: Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Thomas W. Polger: Functionalism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Larry Hauser: Chinese Room Argument. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Jonathan Waskan: Connectionism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • John-Stewart Gordon, Sven Nyholm: Ethics of Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Jason Megill: The Lucas-Penrose Argument about Gödel’s Theorem. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Map of the Great Debates of AI. Abgerufen am 20. März 2023 (englisch).

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Autor=McCarthy et al. |Quelle= Förderantrag, August 1955, S. 1.
  2. Vincent C. Müller: Introduction: Philosophy and Theory of Artificial Intelligence. In: Minds & Machines. Band 22, 2012, S. 67–69, doi:10.1007/s11023-012-9278-y.
  3. a b c d e f g Stuart Russell, Peter Norvig: Künstliche Intelligenz. 3. Auflage. Pearson, München 2012, ISBN 978-3-86894-098-5.
  4. Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien: Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen. Europäische Kommission, Generaldirektion Forschung und Innovation, abgerufen am 1. Mai 2023.
  5. John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Abgerufen am 12. März 2023.
  6. a b c d e f g h John R. Searle: Minds, Brains, and Programs. In: The Behavioral and Brain Sciences. Band 3, Nr. 3, 1980, S. 417–457, doi:10.1017/S0140525X00005756.
  7. a b c d Alan M. Turing: Computing Machinery and Intelligence. In: Mind. Band LIX, Nr. 236, 1950, ISSN 0026-4423, S. 433–460 ([1]).
  8. Hubert Dreyfus: What Computers Can’t Do: The Limits of Artificial Intelligence. 1972, ISBN 0-06-090613-8 (deutsche Ausgabe: Was Computer nicht können. Die Grenzen künstlicher Intelligenz. Athenäum, Königstein/Ts. 1985. ISBN 3-7610-8369-6).
  9. Hubert Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press, 1979, ISBN 0-262-04134-0 (3. Auflage 1992).
  10. Hubert Dreyfus, Stuart E. Dreyfus: Mind over machine. Basil Blackwell, Oxford 1986 (deutsche Ausgabe: Künstliche Intelligenz – Von den Grenzen der Denkmaschine und dem Wert der Intuition, ISBN 978-3-499-18144-3, Rowohlt Hamburg 1991).
  11. Alonzo Church: An Unsolvable Problem of Elementary Number Theory. In: American Journal of Mathematics. Band 58, Nr. 2, 1936, S. 345–363, doi:10.2307/2371045.
  12. A. M. Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. s2-42, Nr. 1, 1937, S. 230–265, doi:10.1112/plms/s2-42.1.230.
  13. Kurt Gödel: Some basic theorems on the foundations of mathematics and their implications. In: Solomon Feferman (Hrsg.): Kurt Gödel Collected works. Band III. Oxford University Press, 1995, ISBN 0-19-514722-7, S. 304–324.
  14. John R. Lucas: Minds, Machines and Gödel. In: Philosophy. Band 36, Nr. 137, 1961, S. 112–127, doi:10.1017/S0031819100057983.
  15. John R. Lucas: This Gödel is killing me: A rejoinder. In: Philosophia. Band 6, Nr. 1, 1976, S. 145–148.
  16. Paul Benacerraf: God, The Devil, And Gödel. In: The Monist. Band 51, Nr. 1, 1967, S. 9–31, doi:10.5840/monist196751112.
  17. Roger Penrose: The Emperor’s New Mind. Oxford University Press, Oxford 1989, ISBN 0-14-014534-6 (deutsche Ausgabe: Computerdenken. Des Kaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Natur, Verlag Spektrum der Wissenschaft, Heidelberg 1991, ISBN 3-8274-1332-X).
  18. Roger Penrose: Shadows of Mind. Oxford University Press, Oxford 1994, ISBN 0-19-853978-9 (deutsche Ausgabe: Schatten des Geistes – Wege zu einer neuen Physik des Bewusstseins Verlag Spektrum der Wissenschaft, Heidelberg 1995, ISBN 3-86025-260-7).
  19. Stuart Hameroff, Roger Penrose: Consciousness in the universe: A review of the ‘Orch OR’ theory. In: Physics of Life Reviews. Band 11, Nr. 1, 2014, S. 39–78, doi:10.1016/j.plrev.2013.08.002.
  20. David J. Chalmers: Minds, Machines, and Mathematics – A Review of Shadows of the Mind by Roger Penrose. In: PSYCHE. Band 2, Nr. 9, 1995, S. 11–20 ([2] [abgerufen am 8. September 2023]).
  21. Solomon Feferman: Penrose's Gödelian Argument A Review of Shadows of the Mind by Roger Penrose. In: PSYCHE. Band 2, Nr. 7, 1995, S. 21–32 ([3] [abgerufen am 8. September 2023]).
  22. Roger Penrose: Beyond the Doubting of a Shadow – A Reply to Commentaries on Shadows of the Mind. In: PSYCHE. Band 2, Nr. 23, 1996 ([4] [PDF; abgerufen am 8. September 2023]).
  23. Roger C. Schank, Robert P. Abelson: Scripts, Plans, Goals, and Understanding. 1. Auflage. Psychology Press, New York 1977.
  24. John R. Searle: Chinese Room Argument. In: Robert A. Wilson, Frank C. Keil (Hrsg.): The MIT Encyclopedia of the Cognitive Sciences (MITECS). 1999, ISBN 0-262-33816-5, S. 115–116 (mit.edu [abgerufen am 2. April 2023]).
  25. Arbeitsgruppe Ethik und Philosophie der künstlichen Intelligenz. Universität Tübingen, abgerufen am 6. Januar 2024.
  26. Die Philosophie der künstlichen Intelligenz. Friedrich-Alexander-Universität Erlangen-Nürnberg, abgerufen am 6. Januar 2024.
  27. Philosophy of Artificial Intelligence. Abgerufen am 6. Januar 2024.
  28. Professur für Ethik der Künstlichen Intelligenz. Abgerufen am 6. Januar 2024.
  29. Willkommen bei der Forschungsgruppe Ethik und kritische Theorien der KI! Abgerufen am 6. Januar 2024.
  30. Philosophie. Einführung in die Philosophie der Künstlichen Intelligenz. Vorlesung. Abgerufen am 6. Januar 2024.