Joachim Castella
I.M.A.G.E.
Institut für Medienanalyse und Gestalterkennung
Wilhelm-Nieswandt-Allee 104, Postfach 12 02 79, 45 314 Essen, Germany, Fax 0201-83 444 61
In: Spuren. 39, 2/1992, S. 31-33, © beim Autor.
"Laßt uns den Menschen machen nach unserem Bilde, uns ähnlich." Dieser Anspruch scheint seit den späten Tagen der Kybernetik, die sich anschickte, sich auszudifferenzieren in cognitive science, Künstliche-Intelligenz-Forschung, neuro science, computer science, Biowissenschaften etc. in weitere Ferne denn je gerückt zu sein. Hielt man es in der frühen Nachkriegszeit noch für möglich, menschliches Denken mit Hilfe Boolscher Algebren in absehbarer Zeit implementieren zu können, so reduzieren sich die Ansprüche der Gegenwart deutlich, wenn das Ziel nunmehr in einem sich fehlerfrei im Raum orientierenden künstlichen Lebewesen liegt. In dem Maße, in dem der Kognitionsbegriff eine Erweiterung erfährt - von Denken/Erkennen zu adäquatem Interagieren des Systems in der Umgebung - bescheiden sich die grundlagentheoretischen Zielvorgaben der KI. Es läßt sich der Eindruck einer gewissen Stagnation innerhalb der KI nicht von der Hand weisen. Gleichzeitig läßt sich eine Gegenbewegung ablesen, es tut sich eine Schere auf innerhalb der KI. Denn erzielt die pragmatische und ndustrielle Anwendung der ingenieurwissenschaftlichen Erkenntnisse der KI zwar großartige Fortschritte in Robotik, Design und Rechnertechnologie, so verhält es sich auf theoretischem Sektor ehr umgekehrt, wenn es darum geht, die Grundlagen eines maschinalen Nachvollzuges kognitiver Strukturen und Leistungen zu erhellen. Die Euphorie der 50er und 60er ist deutlich verklungen und damit scheinen auch die grundlegenden Theoreme der Gründerzeit ihre Attraktivität eingebüßt zu haben.
1. Die klassische Alternative: Symbolverarbeitung ...
Standen am Beginn der 50ger Jahre noch zwei große Paradigmata in paritätischem Wettbewerb nebeneinander, so trat im Laufe der Zeit eines der Modelle nahezu vollständig in den Schatten des anderen; das von Newell/Simon begründete Paradigma der Symbolverarbeitung (Physical Symbol System Hypothesis) hatte den Konnektionismus, der sich an der Modellierung des Gehirns orientierte, verdrängt.
Die Grundannahme der PSSH ist das trotz verschiedener Architektur gleiche Funktionieren von Gehirn und Computer, wenn beide auf bestimmten Abstraktionsgraden als Repräsentations- und Relationsmechanismen von Symbolen verstanden werden. D.h. es wird als Prämisse stipuliert, daß Denken und Verstehen von Welt sich als intrasystemische Abbildung externer Daten ereignet. Dabei ist natürlich nicht an eine schlichte Eins-zu-eins-Übertragung gedacht, sondern in der Tradition von Frege, Russell, Whitehead ein Transformationsgefüge impliziert, mit Hilfe dessen sich komplizierte und komplexe Inhalte in atomistische Komponenten zerlegen lassen, welche dann der Symbolverarbeitung zur Verfügung stehen. Das zentrale Stichwort ist damit in der Repräsentation zu sehen, unabhängig davon, wie fein und subtil diese im Einzelfall auch konzipiert sein mag.
... oder Modellierung des Gehirns
Den gänzlich anderen Weg schlug der Konnektionismus ein, wenn er genau umgekehrt nicht von der Architektur abstrahierte, um allein mit den repräsentierten Symbolen zu arbeiten, sein Interesse vielmehr der Architektur des menschlichen Gehirns galt. D.h. das Gehirn als neuronales Netzwerk wurde als Vorbild der Rechnerarchitektur genommen, um die im natürlichen Bereich vorgefundene Funktionweise zu modellieren. Der Unterschied zwischen beiden Paradigmen läßt sich dahingehend präzisieren, daß ersteres ein statisches Modell letzteres als ein dynamisches begriffen werden kann. Denn auch wenn die Vertreter der Symbolverarbeitung nicht müde werden zu versichern, ihnen gehe es um die logischen Strukturen, die zur Modulation von Symbolen notwendig seien, läßt sich dieser Zugang nicht als strukturaler erfassen. Dies insofern, als die repräsentationelle Basis der PSSH sie zwangsläufig als eine substantialistische klassifiziert, d.h. die Grundvoraussetzung liegt in der unlöslichen Bindung an die Implementierung statischer Entitäten, auch wenn diese dann, logischen Strukturen folgend, manipuliert werden.
Die Dynamik des Konnektionismus findet sich einerseits in der Freiheit, die man sich methodologisch gegenüber dem Endprodukt einräumt. Hier, wo man gegenüber der PSSH das Pferd gleichsam von hinten aufzäumt, geht es gerade nicht darum, eine logische Struktur zu finden/zu implementieren, welche einem bestimmten Problem gewachsen ist, sondern darum, zu ergründen welche Art von System eine bestimmte Eigenschaft entwickeln kann. Zum anderen liefert der Konnektionismus ein gegenüber der PSSH dynamisches Modell, insofern hier in der Tat von einem strukturellen Zugang gesprochen werden kann, wenn neuronale Konnektivität vollständig von substantieller Inhaltlichkeit abstrahiert, um auf das rein funktionale Interagieren und wechselseitige Aktivieren innerhalb des Netzwerkes zu sehen. Als drittes läßt sich eine stärkere Dynamik in der systemimmanenten Anlage erkennen, welche nicht auf ein symbolgestütztes Problemlösen ausgerichtet ist, sondern ein eigenschichtliches Lernen der Maschine intendiert.
Ist dies die große Alternative, in der die KI verfangen ist, so zeigt sich in der letzten Zeit eine zunehmende Hinwendung zum Konnektionismus, der über die Symbolverarbeitung in Gestalt des Neokonnektionismus oder des Parallel Distributed Processing die Überhand gewinnt.
2. Das alte Problem und das neue Konzept: Repräsentation und Subsymbolismus
Dabei kann auch der Neokonnektionismus nicht der Frage entkommen, auf welchem Weg Konzepte gespeichert werden, wie sich Repräsentationen nicht-symbolisch erklären und verarbeiten lassen. Der hier eingeschlagene Weg führt in einen subatomaren Bereich, wenn man das Symbol bzw. die unit als atomistisches Elementarteilchen versteht.
Ist die unit identischer Träger eines Konzepts, d.h. handelt es sich um eine streng lokalistische Repräsentation, dann bricht die Netzwerktheorie diese lokale Unität auf, um Bedeutung und Repräsentation als die jeweilige Aktivierung, Verstärkung, Abschwächung unterschiedlicher und für sich semantisch bedeutungsloser microfeatures zu erfassen. Repräsentation ereigenet sich somit als Zusammenspiel subsymbolischer Einheiten, die über das Netzwerk verteilt erst in ihrem speziellen Zusammenspiel sematischen Gehalt, symbolischen Charakter annehmen können.
3. Pragmatische Probleme des neuen Konzeptes: Formalisierung
Ist damit nun ein Modell gegeben, das den tatsächlichen Funktionsweisen des menschlichen Gehirns nahekommt, so stellt sich im Rahmen der ingenieurwissenschaftlichen KI das Problem der möglichen Implementierbarkeit einer solchen subsymbolischen Mechanizität, anders gewendet stellt sich die Frage nach einem adäquaten Formalismus.
Formalisierungen arbeiten als Abstraktionsstufen immer noch auf der Basis der Semantik, d.h. sie sind grundsätzlich immer noch repräsentational. Prägnant gefaßt ließe sich das Problem somit als das einer repräsationsfreien Repräsentation fassen, die jedoch auf dem Boden der klassischen Logik, die immer eine Wertlogik ist, nicht konzipierbar ist.
Ansätze die Wertgebundenheit derLogik zu verlassen, etwa der calculus of indication von Spencer Brown, oder dessen Erweiterung durch Varela vernachlässigen jedoch eine andere fundamentale Bedingung von Kognition, die Selbstreferentialität. Selbstrefrentialtität sprengt jeden klassischen Kalkül, da zirkuläre Strukturen den Tod der Logik bedeuten.
Somit stellt sich für einen adäquaten Kalkül eine doppelte Forderung, sowohl repräsentationsfrei "repräsentieren" zu können, als auch Selbstbezüglichkeiten antinomiefrei abbilden zu können.
4. Ein möglicher Ausblick: Polykontexturale Logik und Polykontexturalitätstheorie
Will man aber von der Logik nicht Abschied nehmen und ins Irrationale verfallen, so bietet sich ein Ausweg, indem man die Absolutheit der Logik, d.h. ihren universalen Anspruch, von einem Zentrum aus gültig zu sein, zugunsten einer Vielheit der Ursprünge aufgibt. Gotthard Günther hat dieser pluralen, heterarchischen Verortung der Logik sein Konzept der Polykontexturalitätstheorie gewidmet, die sich als eine mehrwertige Logik verstehen läßt, in dem Sinn, daß die eine und allgemeingültige Logik (d.h.die Monokontextur) ihre polykontexturale Dissemination (Kaehr) erfährt. Ist dies der Weg, Selbstbezüglichkeiten antinomiefrei darzustellen, so liefert die von Günther eingeführte Kenogrammatik den Kalkül, der, ohne selbst repräsentational zu sein, die Genese der Repräsentationen, die Semiosis darzustellen vermag.
Polykontexturalität bedeutet dann Tabularität an Stelle von Linearität, Heterarchie an Stelle von Hierarchie, Selbigkeit von Andersheiten an Stelle von Identität, bedeutet nichts weniger als eine neue, nicht mehr klassische, sondern transklassische Rationalität. Günther entwickelt die Grundzüge der Polykontexturalitätstheorie hauptsächlich während seiner Professur am Biological Computer Laboratory (BCL)in Urbana, Illinois, dem er unter der Leitung von Heinz v. Foerster seit 1961 bis zur Auflösung des BCL 1974 angehört.Hierarbeitet er arbeitsteilig als Philosoph unter Mathematikern, Biologen, Ingenieuren in der Wiege der Systemtheorie, deren Ergebnisse im übrigen hervorragend dokumentiert sind, in den komplett als Microfiches vorliegenden Veröfflichungen des BCL.
Die am BCL vorzufindende Interdisziplinarität darf als deutlicher Hinweis darauf verstanden werden, daß spätestens seit den Tagen der Kybernetik die klassische Einteilung in Geistes- und Naturwissenschaften hinfällig geworden ist, nicht nur, wenn Kognition Gegenstand der Forschung ist. Es zeigt sich, daß Spuren eines solchen Denkens sich in der abendländischen Geistesgeschichte schon an anderen Stellen finden lassen, wie etwa in der Dialektik Hegels, der Psychoanalyse Freuds/Lacans, den um Zirkularität und gegen Identitätsdenken anringenden Bemühungen Heideggers, der Grammatologie Derridas.
Interessant wird es, wenn nun einerseits das Bestreben der KI in eine Sackgassen geraten ist, wenn andererseits von unterschiedlichsten Disziplinen das strukturelle Instrumentarium bereits reflektiert wird und wenn darüberhinaus die empirische Neurobiologie (Maturana/Varela) mit diesen theoretischen Überlegungen konvergiert. So bildet der Focus des Interesses sich um die Probleme der Selbstbezüglichkeit, der nicht-repräsentativen Repräsentation, der Heterologie.
5. Polykontexturalität als transdisziplinäres Integrationselement
Ist dies der Ort von dem aus eine Analyse des Kognitionsbegriffes ausgeht, so ist damit deutlich, daß es sich um einen grundlagentheoretischen Zugang handelt, der sich als theoretisches Pendant zum empirischen Kantianismus Maturanas verstehen läßt. Denn wenn die Bedingungen der Möglichkeit von Semiosis in einem präsemiotischen Bereich untersucht werden, zielt ein solcher Ansatz auf die reflexionslogischen und epistemologischen Voraussetzungen unter denen sich Kognition ereignet. Anders gewendet handelt es sich um einen Metadiskurs, der sich als Instanz der Kritik und Vermittlung vor und zwischen die jeweiligen- etwa die oben skizzierten -Ansätze und Schulen schaltet. Kritik, insofern hier bereits darüber entschieden werden kann, ob und in welchem Maße ein Ansatz Fruchtbarkeit verspricht, wenn er auf die Konsistenz seiner immanenten Prämissen hin untersucht wird. Vermittlung, da die gewählte Perspektive als eine rein strukturale, die jeweiligen Zugänge auf einer Abstraktionsebene in den Blick nimmt, welche einerseits deren systematische Verortung leistet, andererseits und in Folge dessen, die verschiedenen Ansätze in ihrer strukturalen Reduktion allererst als entsprechend, analog oder kontradiktorische erkannt werden.
Damit wiederum ist deutlich der Boden der Philosophie betreten, wenn man in der Frage "Was ist Kognition?" eine der Grundfragen der Philosophie wiedererkennt, die Frage danach, auf welchem Weg der Mensch zur Erfahrung von Welt gelangt, in welchem Verhältnis sich Denken und Sein verstehen lassen. Wenn hierbei die polaren Antworversuche von Abbild und Konstruktion, von Engramm und parallelem verteiltem Prozeß sich unversöhnlich gegenüberstehen, dann bedarf es aber einer grundsätzlichen anderen Perspektive, die die Immanenz der verschiedenen Ansätze verläßt und auf deren Ermöglichungsgrund selber reflektiert. D.h. es gilt vor die Frage nach der Kognition jenen kognitiven Akt zu schalten, der sich als die selbstbezügliche Frage danach heraustellt, was die Bedingung der Möglichkeit seiner selbst ist.
LITERATUR
Anderson, J.R.: The Architecture of Cognition. Cambridge (Mass.) 1983
Capurro, R.: Heidegger über Sprache und Information. PhJb 88, 2.Hb. 1981, S.333-343
Churchland, P.S.: Neurophilosophy. Toward a Unified Science of the Brain. Cambridge (Mass.) 1986
Churchland, P.S.: A Neurocomputational Perspective. The Nature of Mind and the Structure of Science. Cambridge (Mass.) 1989
Dreyfuß, H.L.: Die Grenzen Künstlicher Intelligenz. Was Computer nicht können. Frankfurt/M 1985
von Foerster, H.: Observing Systems. Seaside (Cal.) 1981
Günther, G.: Das Bewußtsein der Maschinen. Eine Metaphysik der Kybernetik. Krefeld Baden-Baden 1963
Günther, G.: Beiträge zu einer operationsfähigen Dialektik. 3 Bd. Hamburg 1976-1980
Haugeland, J.: Semantic Engines: An Introduction to Mind Design. in: Haugeland, J.(Ed): Mind Design. Montgomery 1981
Hillis, W.D.: The Connection Machine. Cambridge (Mass.) 1986
Johnson-Laird, P.: Mental Models. Cambridge (Mass.) 1983
Kemke, C.: Der Neuere Konnektionismus. Informatik-Spektrum 11 (1988) S.143-162
Leidlmair, K.: Künstliche Intelligenz und Heidegger. Über den Zwiespalt von Natur und Geist. München 1991
Lischka, C; Diderich, J.: Gegenstand und Methode der Cognitions- wissenschaft. Der GMD-Spiegel 2/3 1987, S.21-32
Maturana, H.R.: Erkennen: Die Organisation und Verkörperung von Wirklichkeit. Braunschweig Wiesbaden 1982
Newell, A.; Simon, H.A.: Computer Science as Empirical Inquiry: Symbols and Search.Communications of the ACM. Vol.19,3/1976, S.113-126
Peschl, M.F.: Cognitive Modelling. Ein Beitrag zur Cognitive Scienceaus der Perspektive des Konstruktivismus und des Konnektionismus. Wiesbaden 1990
Pylyshyn, Z.: Computation and Cognition. Toward a Foundation for Cognitive Science. Cambridge (Mass.) 1984
Riegas, V.; Vetter, Chr.(Hgg): Zur Biologie der Kognition. Frankfurt/M 1990
Schmidt, S.J.(Hg): Der Diskurs des Radikalen Konstruktivismus. Frankfurt/M 1987
Schmidt, S.J.(Hg): Gedächtnis. Probleme und Perspektiven der interdisziplinären Gedächtnisforschung. Frankfurt/M 1991
Spencer Brown, G.: Laws of Form. New York 1972
Stillings, N.A. et al.: Cognitive Science. An Introduction. Cambridge (Mass.) 1987
Varela, F.J.: Kognitionswissenschaft - Kognitionstechnik. Eine Skizze aktueller Perspektiven. Frankfurt/M 1990
Winograd, T.; Flores, F.: Understanding Computers and Cognition. A New Foundation for Design. Norwood (N.J.) 1986
© '98
PCL Group Design & Realisation: |
|||||||||||
Home | PCL-Group | Courses + Training | MediaPool | Günther Electronic Archive | PolyContextural Computing Lab | Glossary | Links | Contact | Th. Mahler |