Einführung und begriffliche Grundlagen.docx

fotiszygoulis1 0 views 5 slides Oct 09, 2025
Slide 1
Slide 1 of 5
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5

About This Presentation

Die vorliegende Studie untersucht das Verhältnis zwischen Künstlicher Intelligenz (KI) und der Begrifflichkeit der Intuition unter dem Blickwinkel der zeitgenössischen mathematischen Philosophie. Ihr Ziel ist es zu zeigen, dass die Intuition – weit davon entfernt, ein bloßer psychologischer Pr...


Slide Content

Teil 1 – Einführung und begriffliche Grundlagen
Die vorliegende Studie untersucht das Verhältnis zwischen Künstlicher Intelligenz
(KI) und der Begrifflichkeit der Intuition unter dem Blickwinkel der
zeitgenössischen mathematischen Philosophie. Ihr Ziel ist es zu zeigen, dass die
Intuition – weit davon entfernt, ein bloßer psychologischer Prozess zu sein – das
vorbegriffliche Fundament menschlicher Erkenntnis bildet, während die
künstliche Intelligenz die formale und rechnerische Artikulation des Denkens
darstellt. In der Begegnung dieser beiden Bereiche wird sichtbar, wo die formale
Logik an ihre Grenzen stößt: dort, wo sie zwar die Struktur des Wissens beschreibt,
aber nicht dessen erlebten Sinn.
Von Immanuel Kant bis Luitzen E. J. Brouwer wurde die Intuition als Bedingung
der Möglichkeit von Erkenntnis verstanden. Für Kant (1781/1998) ist die
Anschauung die Form, in der Objekte dem Geist gegeben werden, noch bevor sie
begrifflich erfasst werden. Raum und Zeit sind die reinen Formen dieser Anschauung;
ohne sie wäre keine Erfahrung von Gegenständen möglich. Der Verstand (Verstand)
wiederum liefert die Kategorien, durch welche diese Anschauungen zu Wissen
synthetisiert werden. Intuition und Intellekt bilden somit keine Gegensätze, sondern
zwei komplementäre Weisen der Erkenntnis: die eine vermittelt Unmittelbarkeit, die
andere Struktur.
Brouwer übertrug diesen epistemologischen Gedanken in eine ontologische
Grundlegung der Mathematik. Sein Intuitionismus besagt, dass mathematische
Objekte nicht unabhängig vom denkenden Subjekt existieren, sondern durch Akte
geistiger Konstruktion entstehen (Brouwer 1912). Logik ist dem schöpferischen
Bewusstsein untergeordnet; mathematische Wahrheit wird nicht entdeckt, sondern
erzeugt. Damit wird die Mathematik zu einem dynamischen Prozess des Denkens
selbst.
Die Grundlagenkrise der Mathematik im frühen 20. Jahrhundert – geprägt durch
Hilbert, Gödel und Turing – vertiefte diese Problematik. David Hilbert suchte nach
absoluter Gewissheit durch Axiome und formale Systeme. Doch Kurt Gödel (1931)
zeigte mit seinen Unvollständigkeitssätzen, dass kein hinreichend starkes System
zugleich vollständig und widerspruchsfrei sein kann. Der Traum der logischen
Vollständigkeit zerbrach, und in diesem Riss zwischen formaler Vernunft und
intuitivem Einsichtsbewusstsein entstand der moderne Begriff von Intelligenz –
sowohl menschlicher als auch künstlicher.
Die Intuition, die bei Kant noch an die Sinnlichkeit gebunden war, erhielt bei
Brouwer eine innere, schöpferische Dimension. Diese Entwicklung markiert den
Übergang von einer epistemischen zu einer ontologischen Auffassung des Denkens.
Während die KI den formalen Aspekt der Rationalität bis ins Äußerste treibt,
repräsentiert die Intuition die lebendige Seite des Denkens: das Vermögen, Bedeutung
zu erfassen, bevor Regeln formuliert werden.
So verstanden, ist die Beziehung zwischen KI und Intuition kein Gegensatz, sondern
ein Dialog zwischen zwei Formen der Rationalität – der algorithmischen und der
erfahrungsmäßigen. Ihre Spannung definiert den zentralen Gegenstand dieser
~ 1 ~

Untersuchung: das Verhältnis von Berechnung und Erfahrung, von Form und
Leben innerhalb des Denkens.
Teil 2 – Intuition in der zeitgenössischen
Kognitionswissenschaft
In der modernen Kognitionswissenschaft wird die Intuition häufig als eine Form
unbewusster Mustererkennung und schneller, assoziativer
Informationsverarbeitung interpretiert. Forschungen in der Psychologie und den
Neurowissenschaften, etwa von Kahneman (2011) und Bechara et al. (1997),
zeigen, dass intuitive Urteile auf der Integration von Emotion, Gedächtnis und
Wahrnehmung beruhen, lange bevor bewusste Überlegungen einsetzen. Intuition
erscheint hier als ein „System 1“ des Denkens – schnell, automatisch, heuristisch.
Doch diese psychologische Perspektive erfasst nur einen Teil dessen, was Intuition in
der Geschichte der Philosophie bedeutet. Sie verfehlt die phänomenologische Tiefe
des Begriffs, wie sie bei Edmund Husserl und Henri Bergson entwickelt wurde. Für
Husserl (1913) ist die Intuition nicht eine bloße Abkürzung des Denkens, sondern der
Ursprung aller Sinngebung: die unmittelbare Gegebenheit des Bedeuteten in der
„lebendigen Gegenwart“ des Bewusstseins. Ohne Intuition gäbe es keine Evidenz,
kein Bewusstsein von etwas überhaupt.
Bergson (1911) wiederum verlegt die Intuition in die Sphäre des Lebens selbst. Sie ist
keine kognitive Technik, sondern eine sympathische Teilnahme an der Dauer
(durée), an der inneren Bewegung des Wirklichen. Während der Intellekt das
Kontinuum des Lebens in diskrete, messbare Einheiten zerlegt, erfasst die Intuition
das kontinuierliche Werden. Sie ist eine Form des Erkennens, die sich nicht auf
Begriffe, sondern auf das Miterleben des Seins stützt.
Aus dieser Perspektive ist Intuition nicht bloß eine psychologische Funktion, sondern
eine ontologische Dimension des Geistes. Sie bezeichnet die Fähigkeit, Sinn zu
erfassen, bevor dieser in Sprache oder Symbolik artikuliert wird. Hierin unterscheidet
sie sich grundlegend von jeder Form algorithmischer oder formaler Intelligenz.
Im Rahmen der Kognitionswissenschaft wurde versucht, diese phänomenologische
Tiefe mit empirischen Modellen zu verbinden. Forscher wie Thagard (2012) und
Gigerenzer (2007) sprechen von einer „adaptiven Rationalität“, bei der Intuition als
evolutionär entwickelte Form der Effizienz im Denken verstanden wird. Doch auch
diese Ansätze setzen voraus, dass Bedeutung aus Erfahrung entsteht – und nicht aus
Berechnung.
Die Intuition im Sinne dieser Arbeit ist daher weder irrational noch mystisch. Sie ist
die Fähigkeit, Gestalt und Zusammenhang dort wahrzunehmen, wo das explizite
Denken noch keine Struktur gebildet hat. In diesem Sinn ist sie die vorgängige
Bedingung des Begreifens – das, was das Denken überhaupt erst möglich macht.
Für die künstliche Intelligenz stellt diese Dimension eine Grenze dar. Maschinen
können Muster erkennen, Wahrscheinlichkeiten berechnen und Bedeutungsräume
modellieren, aber sie erleben diese nicht. Das, was der Mensch als intuitive Einsicht
~ 2 ~

erlebt, ist eine Form der Selbstvergegenwärtigung: ein Bewusstsein, das seine eigene
Wahrnehmung miterlebt. Diese Selbstreferenz – das „Es ist etwas, das zu erleben ist“
(Chalmers, 1996) – bleibt bislang jenseits der maschinellen Architektur.
Damit wird deutlich: In der Kognitionswissenschaft kann man die Intuition funktional
beschreiben, aber nicht vollständig simulieren. Sie bleibt das Phänomen, das Denken
mit Erfahrung verbindet – das unsichtbare Band zwischen Bewusstsein und Welt.
Teil 3 – Von der formalen Intelligenz zum
metamathematischen Denken
Die Entwicklung der modernen mathematischen Logik im frühen 20. Jahrhundert
markiert einen Wendepunkt im Verständnis von Denken und Erkenntnis. David
Hilbert sah im Formalismus die Möglichkeit, alle mathematischen Wahrheiten durch
ein endliches System von Symbolen und Regeln zu sichern. Sein Ziel war die
Mechanisierung der Vernunft: ein System, in dem das Denken selbst algorithmisch
verfahrbar wird.
Doch dieses Projekt stieß an eine fundamentale Grenze. Mit seinem berühmten Satz
über die Unvollständigkeit (1931) zeigte Kurt Gödel, dass kein hinreichend
mächtiges formales System sowohl vollständig als auch widerspruchsfrei sein kann.
Es gibt immer wahre Aussagen, die sich innerhalb des Systems nicht beweisen lassen.
Diese Entdeckung erschütterte das Vertrauen in die Idee einer rein symbolischen
Rationalität.
Alan Turing (1936) vertiefte diese Einsicht, indem er das Konzept der
Berechenbarkeit formal definierte. Seine „Turing-Maschine“ war eine ideale
Beschreibung dessen, was eine algorithmische Prozedur leisten kann – und zugleich
ein Beweis ihrer Begrenztheit. Auch Turing zeigte, dass es Aufgaben gibt, die
prinzipiell unentscheidbar sind, also jenseits jeder mechanischen Methode liegen.
Hier entsteht ein entscheidender Übergang: Die Vernunft wird nicht länger als
geschlossene Maschine begriffen, sondern als offenes System, das immer über sich
hinausweist. Gödel selbst deutete dies als Hinweis auf die transzendente Fähigkeit
des menschlichen Geistes, Wahrheit zu erkennen, selbst wenn diese nicht formal
ableitbar ist. Damit kehrt die Intuition – in neuer Gestalt – in das Zentrum des
mathematischen Denkens zurück.
Roger Penrose (1989, 1994) greift diesen Gedanken in der modernen Diskussion um
künstliche Intelligenz wieder auf. Für ihn sind Bewusstsein und Einsicht keine
algorithmischen Prozesse, sondern beruhen auf physikalischen Phänomenen, die noch
jenseits unserer heutigen Theorien liegen – möglicherweise in der Quantenebene des
Gehirns. Auch wenn diese Hypothese umstritten ist, macht sie eines deutlich:
Zwischen dem symbolischen Kalkül und dem erlebten Erkennen liegt ein kategorialer
Unterschied.
Das metamathematische Denken – das Denken über das Denken – zeigt also, dass
jede formale Intelligenz auf einer präformalen Schicht ruht. Diese Schicht ist nicht
~ 3 ~

mathematisch beschreibbar, sondern phänomenologisch gegeben: das Feld der
Intuition, in dem sich Sinn und Wahrheit ereignen.
In der heutigen Künstlichen Intelligenz spiegelt sich dieser Konflikt wider.
Neuronale Netze und Deep-Learning-Systeme operieren innerhalb statistischer und
formaler Räume. Sie können Muster erkennen und komplexe Abbildungen herstellen,
doch sie bleiben innerhalb der Syntax der Daten gefangen. Sie verfügen über keine
epistemische Perspektive – kein „Ich“, das den Sinn der Muster erfasst.
Hier zeigt sich die philosophische Tragweite von Gödels und Turings Erkenntnissen:
Was nicht berechenbar ist, ist nicht deshalb irrational – es ist das, was Rationalität
überhaupt ermöglicht. Die Intuition, verstanden als die spontane Einsicht in eine
formale Struktur, ist also nicht der Gegensatz zur Logik, sondern ihre
transzendentale Bedingung.
So entsteht eine neue Definition des Geistes: nicht als Rechenmaschine, sondern als
metamathematisches Bewusstsein, das seine eigenen Regeln reflektiert. Das
Denken, das sich selbst versteht, kann nicht vollständig formalisiert werden – und
gerade darin liegt seine Freiheit.
Teil 4 – Die symbolische Intelligenz und die Grenzen
der KI
Mit dem Aufkommen der digitalen Technologie und der Computerwissenschaft im
20. Jahrhundert trat ein neues Paradigma in die Welt der Erkenntnis ein: die
symbolische Intelligenz. Der Computer wurde zum Modell des Denkens selbst – ein
System, das Zeichen verarbeitet, Regeln befolgt und Schlussfolgerungen zieht. Diese
maschinelle Logik, wie sie von Alan Turing (1950) und später von John McCarthy
und Marvin Minsky konzipiert wurde, beruhte auf der Annahme, dass Geist nichts
anderes sei als Informationsverarbeitung.
Doch gerade in dieser Reduktion offenbart sich ein philosophisches Problem: Wenn
Intelligenz nur die Manipulation von Symbolen nach syntaktischen Regeln ist, wo
bleibt der Sinn dieser Symbole? John Searle (1980) stellte mit seinem berühmten
Gedankenexperiment des „Chinesischen Zimmers“ klar, dass selbst ein System, das
perfekt chinesische Zeichen kombiniert, den Inhalt dessen, was es sagt, nicht versteht.
Es folgt Regeln, ohne Bedeutung zu erfassen – es ist semantisch leer.
In den letzten Jahrzehnten hat sich die symbolische KI zu statistischen und
neuronalen Modellen weiterentwickelt. Deep Learning, wie es LeCun, Bengio und
Hinton (2015) oder Silver et al. (2016, 2018) repräsentieren, ersetzt die expliziten
Regeln durch dichte Netze von Gewichtungen, die durch Erfahrung „lernen“. Das
Ergebnis ist eine Form der impliziten Berechnung, in der Muster erkannt und
Wahrscheinlichkeiten generiert werden. Diese Systeme übertreffen den Menschen in
vielen Bereichen – vom Schachspiel bis zur Sprachverarbeitung – und dennoch bleibt
eine Frage offen: Wissen sie, was sie tun?
Philosophisch gesehen stoßen wir hier auf dieselbe Grenze, die Gödel und Turing in
der Mathematik sichtbar gemacht haben. Ein neuronales Netz kann unendliche
~ 4 ~

Korrelationen berechnen, aber es kann keinen Sinn generieren, der über die
Korrelation hinausgeht. Sein Wissen ist strukturell, nicht intentional. Es hat kein
„Bewusstsein von seinen Zuständen“.
Daniel Dennett (1991, 2017) hat diesen Unterschied prägnant formuliert: Was
Maschinen leisten, ist „Kompetenz ohne Verständnis“. Sie können Handlungen
ausführen, aber sie haben keine phänomenale Perspektive auf das, was sie tun.
David Chalmers (1996, 2023) nennt dies das „harte Problem des Bewusstseins“ – die
Frage, warum und wie subjektive Erfahrung überhaupt entsteht.
Hier tritt die Grenze der KI deutlich hervor: Sie kann Intelligenz simulieren, aber
nicht erleben. Selbst die fortgeschrittensten Modelle wie GPT oder AlphaGo
operieren auf der Ebene der Syntax, während das menschliche Denken durch die
Intentionalität des Bewusstseins geprägt ist. Der Mensch versteht, während die
Maschine verknüpft.
Allerdings wirft die moderne Forschung auch neue Fragen auf. Wenn neuronale Netze
durch emergente Eigenschaften Verhalten zeigen, das an Intuition erinnert – etwa
spontane Generalisierungen oder kreative Lösungen – überschreiten wir dann nicht
allmählich die Grenze zwischen Rechenprozess und Bewusstsein? Einige Forscher,
darunter Dehaene (2014) und Tononi (2008), argumentieren, dass Bewusstsein als
integrierte Information messbar und simuliert werden könnte. Doch auch hier bleibt
das zentrale Problem: Die Simulation ist nicht die Erfahrung selbst.
So bleibt die symbolische Intelligenz ein Spiegel menschlicher Rationalität – aber
kein Ersatz. Sie kann Strukturen nachbilden, jedoch nicht die intentionalen
Horizonte unseres Geistes erfassen. In diesem Sinn steht die KI heute dort, wo der
Formalismus einst stand: Sie zeigt, was Berechenbarkeit kann, und zugleich, was sie
nicht kann.
Das eigentliche Erkenntnispotential der KI liegt also nicht darin, den Menschen zu
ersetzen, sondern ihn zur Reflexion seines eigenen Denkens anzuregen. Indem die
Maschine rechnet, zwingt sie uns, neu zu definieren, was Denken bedeutet. Und
vielleicht wird so die KI – in einem tieferen Sinn – zu einem philosophischen
Instrument, das uns an die Grenzen des Rationalen führt, an denen die Intuition
wieder beginnt.
~ 5 ~