Einleitung: Kontexturale Rahmenbedingung zur Strukturation
Nach dem Geviert der Forschungsstrategien und der Thematisierungsweisen, die die vier Grundaspekte der Thematik hervorheben wie ihrer Interrelationen, soll die Untersuchung, der Entwurf, die Idee des General Model of TransComputing bzw. die Skizze rechnender Räume in denkender Leere, d.h. der Strukturationen der Interaktivität ihre Orientierung erhalten. In engster Verbindung zur vierfachen Thematisierung steht die Positionalisierung ihrer Paradigmen, Konzepte und Theoreme im Sinne der DiamondStrategien. Mit dem Ziel, höchstmögliche Reflektiertheit und Distanz zu gewährleisten.
Dieses Modell der Erfragung, der Explikation, des Entwurfs, der Konstruktion ist als Minimalmodell zur Strukturierung der Fragestellungen der hier vorgestellten Arbeit anzusehen. Gewiss muss das Diagramm der Fragestellungen selbst expliziert, formalisiert, modelliert, realisiert und hinterfragt werden.
A) Das Feld Narration , Explikation" bezieht sich auf die Intuition, die begrifflich oder metaphorisch, d.h. im Medium der Sprache, von umgangssprachlicher bis fachsprachlicher Prägung, zur Darstellung gebracht wird. Es handelt sich um eine rein funktionale Bestimmung, daher ist es kein Widerspruch, wenn im Bereich der Narration auch Aspekte aus den anderen Thematisierungen benutzt werden, etwa Diagramme, Formeln, Programme. Diese stehen in diesem Zusammenhang in einer narrativen Verwendung. Limitationen der Aussagbarkeit, der Vermittelbarkeit, der Grenzen von begrifflicher und poetischer u.a. Figuren sind hier mitzuberücksichtigen. Historische Beispiele der Grenzsituationen sind etwa Hegel und Heidegger.
Ein zeitgenössisches Beispiel für eine reine Narration, die jegliche Formalisierung, Implementierung und Realisation zu Recht vorerst ablehnt, ist das Werk Humberto Maturanas zur Theorie lebender Systeme. Dies schliesst gewiss andere Thematisierungsweisen von anderen Autoren nicht aus.
B) Das Feld Formalisierung, Kalkülisierung" bezieht sich auf den operativ-symbolischen Aspekt der Thematik. Es handelt sich dabei nicht einfach um eine Formalisierung des eh schon im begrifflichen Kontext gesagten. Die Formalisierung hat, wie jeder andere Aspekt auch, seine eigene Autonomie. Dies schliesst die enge Verbundenheit mit den anderen Aspekten nicht aus. Interessant beim Formalisierungaspekt sind nicht nur die tatsächlich geleisteten Schritte der Realisation der Formalisierung bzw. der operativen Inskription, sondern auch die Thematisierung der immanenten Limitationstheoreme der Formalisierung selbst. Hier sind gewiss die Arbeiten der Grundlagenforscher der Mathematik und Logik von besonderer Bedeutung Gödel, Church, Turing, Markov u.a.
C) Das Feld Implementierung, Modellierung" bezieht sich nicht nur auf mögliche programmtechnische Implementierungen, Modellierungen und Simulationen etwa auf einem Computersystem, sondern auch als Implementierung des Entwurfs des TransComputing im Kontext der verschiedenen Fachsprachen (Philosophie, Mathematik, Logik, Informatik, Semiotik, usw.). Als Implementierungstrategie ist auch der Gebrauch graphentheoretischer Modelle zu sehen, insbesondere dort, wo dieser die immanenten fachlichen Grenzen sprengt bzw. die Graphentheorie missbraucht, ohne dies im Einzelnen umständlich begründen zu wollen.
D) Das Feld Konstruktion, Realisation" bezieht sich funktional auf die verschiedenen Ebenen der Konstruktivität des Entwurfs. Soweit sich dieser Aspekt auf eine machinale Realisation des Entwurfs bezieht, können im Text nur wenige Angaben gemacht werden.
Ein Vorentwurf findet sich im Teil D) der Arbeit: Konsequenzen". Dort werden die narrativen, implementativen und formalen Folgen der Idee für eine mögliche Konstruktion im Sinne einer Realisierung skizziert. Auch wenn aus Simulationen keine Realisationen emergieren, ist zu beachten, dass eine Realisation auch ihre Modellierungs- und Simulationsaspekte hat. So lässt sich die Idee des TransComputing zur Zeit gewiss nur modellhaft im Rahmen bestehender Hard- und Software realisieren, obwohl eben gerade diese eine dekonstruktiven Transformation unterworfen werden müssten. Es stellt sich auch die Frage, in welcher Form der Materie TransComputing realisierbar wäre. Entgegen eines idealistischen Funktionalismus wird hier behauptet, dass die Fixierung auf die Mikroebene weder technisch noch konzeptionell bindend ist.
Inwieweit bei einer konkreten Analyse das Vierer-Schema der Thematisierung eine Erweiterung oder eine Reduktion erfährt, hängt gänzlich von der Intention seines Gebrauchs ab. Es wird damit kein trans-epistemologischer Dogmatismus versucht. Zwischen den funktional bestimmten Bereichen, Aspekten der Thematisierung besteht keine Hierarchie, sondern eine komplexe gegenseitige Fundierung und Entgrenzung.
Nach der Strategie der Güntherschen Arbeiten zur Zeit des Grundrisses wurde deklariert, dass erst der begrifflich-metaphysische Entwurf eines transklassischen Denkens zu entfalten sei und erst daraufhin die Klempnerarbeit" der Formalisierung zu kommen habe. Der Forschungsweg Günthers hat deutlich gemacht, dass dieser Weg, trotz seiner Teilberechtigung, nur in einem äusserst beschränkten Masse gangbar ist, will man nicht die Autonomie der Formalisierungsthematik verleugnen und sich damit auf einen äusserst eng begrenzten Bereich des Denkens beschränken.
Später wurde die Einsicht in die Autonomie des Formalismus und der Notwendigkeit seiner Interpretation wie folgt formuliert:
Man ist bisher gewohnt gewesen, daß die Philosophie voranging und Mathematik und Technik folgten. D.h. die Philosophie stellte das Thema, und mathematisches und technisches Denken folgten ihm gelehrig...Inszwischen ist aber durch die Technik, und zwar in der Gestalt der Kybernetik, eine der Tradition ganz zuwiderlaufende Bewußtseins- und Erkenntnissituation geschaffen worden. Man philosophiert nicht zuerst, ... sondern man treibt die Anwendung binärer Strukturen und Operationen in immer neuen Varianten vorwärts,...Dabei entwickeln sich zwangsläufig neue philosophische Konzeptionen." Günther 1976
In dieser Studie wird in mancher Hinsicht, die nicht immer explizit gemacht werden kann, auf transklassische Formalismen und deren Interpretation zurückgegriffen. In diesem Sinne müsste erst der Formalismus eingeführt werden und dann diese Studie als Interpretation vorgestellt werden. Der Bezug dieses Entwurfs ist nicht in einer neuen empirischen Erkenntnis bzgl. der Welt zu sehen, sondern reflektiert die Ergebnisse einer skripturalen Arbeit wie sie in der Entwicklung transklassischer Formalismen zutage kommen.
Paradebeispiel für das Wechselspiel von Intuition und Formalismus ist die Explikation und Formalisierung der Idee der Berechenbarkeit. Diese Explikation und Präzisierung vollendet sich in einem allgemein anerkannten Kalkül der Berechenbarkeit, der in verschiedensten zueinander äquivalenten Darstellungsformen realisiert werden kann. Eine Explikation ist kein Beweis, insofern führen die verschiedenen Realisationen zur Hypothese von Church und Turing, dass damit der Begriff der Berechenbarkeit sprachunabhängig expliziert und präzisiert ist. "Alle Algorithmen im präzisen Sinn, sind Algorithmen im intuitiven Sinne."
The Church-Turing thesis has the form
"the formally definable notion X corresponds to an intuitive notion Y".
It equates the intuitive notion of algorithmic computation with the formal notion of Turing computable functions from integers to integers:
The intuitive notion of algorithms is formally expressed by Turing machines.
X = algorithms, Y = Turing machines." Wegner, p. 3, CMCS ´99
Entsprechend wird bei Wegner die Idee einer Erweiterung des Paradigmas der Berechenbarkeit eingeführt als Erweiterung der Intuition und deren Explikation und dem Versuch ihrer Formalisierung.
E1: The intuitive notion of sequential interaction is formally expressed by non-well-founded sets.
X = sequential (single-stream) interaction, Y = non-well-founded sets
E2: General interactive computing is formally expressed by coinductive models (coalgebras).
X = general (multi-stream) interaction, Y= coinductive models (coalgebras)
The extensions E1, E2 of the Church-Turing thesis provide mathematical legitimacy for models of interaction. Non-well-founded set theory and coalgebras are coinductive extensions of inductive formal models of computation that express extension of the intuitive algorithmic model of computation." Wegner, p. 3, CMCS ´99
Understanding of relations between formalisms and intuitive notions being formalized is a central goal both of Godel's work on completeness/incompleteness and of Church´s thesis. Theses that relate intuitive to formal models of computing can be motivated either by the desire to formalize a given intuitive notion or by the goal of providing intuition for a given formal concept. Church's thesis has the second motivation, providing intuitions for the robust formal concept of computability by Turing machines, the lambda calculus, or partial recursive functions. He recognized that the answer to such questions could not be definitive, but the equivalent expressiveness of alternative formalisms for computability appeared to provide strong evidence for the Church-Turing thesis.
Church-Turing thesis: Formal effective computability by the lambda calculus (Church) or TMs (Turing) expresses the intuitive notion of effective computability of functions (over positive integers).
The Church-Turing thesis answers the question "What is the intuitive notion of computing that is expressed by TMs?", but not the question "What is the formal model that expresses the intuitive notion of computing?".
"In the early years of computing the intuitive notion of computing was identified with algorithms, and the two above questions were considered to have the same answer. As technology became increasingly interactive, and it was realized that algorithms could not express interaction, the intuitive notion of computing continued to be formalized by TMs because no formal model beyond that of TMs or well-founded set theory was available. Non-well-founded set theory and SIMs (Single Interaction Machine, r.k.) provide well-defined mathematical and machine models that go beyond algorithms, allowing the thesis to be extended." Wegner
Die gesamte Argumentationsstrategie der Theorie Persistenter Maschinen wie sie von Peter Wegner geleistet wird, ist als Abgrenzungs- und Erweiterungsstrategie zu verstehen, die auf einer neuen Erfahrung, einer neuen Intuition basiert. Es wird von einer neuen Intuition Interaktion im Gegensatz zur Intuition der Berechnung (Algorithmen, Computation) ausgegangen und eine Modellierung und Formalisierung versucht in Anlehnung an die von mehr mathematischer Seite erarbeiteten Konzeptionen aus der Logik und Algebra: Coalgebra, Coinduktion, final/initial Object usw.
Die chiastische Proportion von Intuition und Formalismus lässt sich nicht restlos in eine Reduktion des Intuitiven und Sprachlichen in einen objektivierenden und operationalen Kalkül oder oder entsprechend in eine Programmiersprache übersetzen.Der Reduktion (ver)bleibt ein Rest, ein Reflexionsrest, der im radikalsten Sinne den Prozess der Reduktion, der hier weder Intuition noch Kalkül ist, zur Geltung bringt.
"Hower much we would like to ´mathematize´the definition of computability, we can never get completely rid of the semantic aspect of this concept. The process of computation is a linguistic notion (presupposing that our notion of language is sufficiently general); what we have to do is to delimit a class of those functions (considered as abstract mathematical objects) for whichexists a corresponding linguistic object (a process of computation)." Mostowski, Thirty Years of Foundational Studies, 1966, p. 33
Der Wegnersche Vorstoss lässt sich zusammenfassend wie folgt in einer hermeneutischen Matrix, gemäss seiner eigenen Grundvorgaben von Intuition und Formalismus, situieren.
Der Vorstoss, basierend auf einer neuen Intuition, kann in jeder Hinsicht abgewehrt werden. Es braucht weder eine Ergänzung der Mathematik oder gar eine Revision durch nicht-klassische Mengenlehre, Unfundiertheit, Coalgebren, Coinduktion usw.
Alles lässt sich bei entsprechender Ingeniosität durch die klassischen Apparate vollziehen. Alles Neue lässt sich, wenn es nur richtig interpretiert wird, auf klassische Vorgehensweisen und Konzeptionen abbilden und durch diese simulieren oder auch reduzieren. Dies ist eine Abwehrstrategie als Reaktion auf den Einbruch des Neuen. Von selbst wäre die klassische Position nicht auf die Idee einer radikalen Konzeption der Interaktion gekommen. Da die neue von aussen kommende Position vereinnahmt werden kann, kann man auch Affirmatives gegenüber der abgewehrten Position verlautbaren und, nach einigen Domestikationsanpassungen, eine eigene Terrainerweiterung ausführen.
After having prepared the ground, we can now investigate the relation between Church's Thesis and interaction. Peter Wegner writes: The hypothesis that the formal notion of computability by Turing machines corresponds to the intuitive notion of what is computable has been accepted as obviously true for 50 years. However, when the intuitive notion of what is computable is broadened to include interactive computations, Church's thesis breaks down. Though the thesis is valid in the narrow sense that Turing Machines express the behavior of algorithms, the broader assertion that algorithms capture the intuitive notion of what computers compute is invalid." [Wegner 1997, p. 83]
Church's Thesis, however, does not assert that algorithms describe any behavior of computers but only that algorithms can compute any computable function. So, Wegner's argument does not affect Church's Thesis.
Nevertheless, it is certainly very interesting to ask whether interaction machines can do" anything Turing machines cannot. Investigating the expressive power of interaction machines can be done in two steps:
1. Are procedures not computing any function expressable by interaction machines? And if so, what does computability mean in the case of such tasks as driving home"? Peter Wegner calls these computations non-algorithmic" but he does not give a precise definition of the term.
2. Are there functions computable by interaction machines but not by Turing machines? This question is even more interesting than the first: If it could be answered in the affirmative, we would have a computational model that is more expressive than the Turing machine, and Church's Thesis would be contradicted. It is important to note that Wegner does not give any examples for this case in his publications. We cannot answer the question here because his interaction machines are not formally defined. But if we assume the interaction machine given above, interactive protocols do not exceed the expressive power of Turing machines." Prasse, Why Church's Thesis Still Holds
Dies ist die Wegnersche Position, soweit sie sich klassischer Formalismen bedient. Hier besteht die Chance, die neuen Intuitionen mithilfe des Trojanischen Pferdes klassischer Formalismen in den Wissenschaftsbetrieb einzuschmuggeln. Je nach der Attraktivität der Konstrukte finden sich automatisch Mitstreiter, die die neuen Intuitionen tiefer in klassische Formalismen integrieren. Dass nun plötzlich etwa eine spezielle Mehrband-Turingmaschine eine formale Explikation der Intuition der Interaktion leisten können soll ohne den nicht-klassischen Anspruch zu verraten, bedarf gewiss raffinierter Verhandlungen. Andererseits finden sich auch Mitstreiter auf Seiten der Verteidigung und Ausweitung der nicht-klassischen Intuition durch andere Ansätze und geleitet durch andere Motivationen.
New mathematical tools are needed to model stream-based computation, because inductive methods of definition and reasoning only work in domains of finite objects. The chief new notions are coinduction, coalgebras, and non-well-founded sets.
Inductive definitions provide three conditions:
While induction formalizes the metaphor of constructing finite structures from primitives, coinduction formalizes the observation metaphor of stream-based environments. Coinductive definitions eliminate the initiality condition of induction, and replace the minimality condition by a maximality condition. (...)
Coinduction provides a mathematical framework for formalizing systems that interact with the external world though infinite interaction sequences. In addition to greatest fixpoints, the semantics of coinduction assumes lazy evaluation; the tokens of the stream are observed one at a time, rather than all at once. Hence, coinductive definitions permit us to consider the space of all processes as a well-defined set, even if the input streams are generated dynamically and cannot be predicted a priori." (Dina Goldin und David Keil)
Hier erscheint die Konzeption der Turing Maschine in einem anderen Licht. Eine andere und zwar neue Intuition ist leitend, die der Interaktion. Damit entsteht für die Interaktionisten das doppelte Problem, einmal die neue Intuition zugänglich, einsichtig, evident und internalisierbar zu machen und zusätzlich die entsprechenden Formalismen der neuen Einsicht in die Interaktion zu produzieren und zudem der Wissenschaftscommunity gegenüber verständlich zu bleiben. Dabei entsteht das Paradox, dass mit dem Grad der Verständlichkeit der Formalismen die Novität der Intuition verloren geht.
Die andere Strategie ist die der polykontexturalen Option: die neue Intuition mit neuen Formalismen zu etablieren. Damit sind allerdings beide Unternehmungen, die Plausibilisierung der neuen Intuition wie die des Entwurfs einer neuen Operativität, der klassischen Mentalität entzogen.
Es ist daher nicht verwunderlich, dass die Wegnersche Position Kritik erfahren hat von der Position etablierter Formalismen und bewährter Intuition. Dies ist in kompetenter und instruktiver Weise geleistet worden im Paper von Michael Prasse und Peter Rittgen Why Church's Thesis Still Holds. Some Notes on Peter Wegner's Tracts on Interaction and Computability." 1997
Damit wird nicht nur der Ansatz Wegners neu, wenn auch mit klassischer Optik, beleuchtet, sondern auch die Situierung der Turing Maschine und insb. die Churchsche These erhält eine neue Inszenierung im Sinne einer positiven Abgrenzung zum Unternehmen Peter Wegners. Dies wiederum ist der klassischen Position nur möglich aufgrund der vorangegangenen Wegnerschen Arbeiten.
Die Hauptvertreter wie Joseph Goguen und Peter Padawitz der mathematischen Strömung der Coalgebraisten bewegen sich im Rahmen der klassischen Intuition was die Churchsche These anbelangt und entwickeln genuin die Theorie der Coalgebren ohne Bezugnahme auf ihre mögliche Interpretation als Interaktionsmaschinen. Wegner entwickelt seine nicht-klassischen Formalismen nicht selbst, sondern bezieht sich auf die Ergebnisse der Coalgebraiker. Dass diese ihre Forschungen ebenso auf neuen Intuitionen basieren ist naheliegend, doch müssen diese nicht mit den Wegnerschen, die zu einem neuen Paradigma der Interaktion und Berechenbarkeit führen wollen, zusammen gehen. Interessant ist, dass beide Tendenzen sich in der Literatur so gut wie nicht aufeinander beziehen, ausgenommen die wenigen Anschlusstellen zum Entborgen von Formalismen und Methodenvon Seiten Wegners.
Dem Phänomen der Interaktion eine solche Auszeichnung zuzuordnen, dies zu einem neuen Paradigma zu erheben, wie dies Wegner vorschlägt, entspricht gewiss einer neuen und nicht-klassischen Intuition der Situation. Dort wo sich Wegner auf nicht-fundierte Mengenlehre und Coalgebren bezieht, bewegt er sich in einer nicht gerade klassischen und etablierten Situation, wenn auch nicht in einer trans-klassischen. Warum jedoch gerade diese und nicht andere nicht-klassische Formalismen benutzt werden, wird nicht diskutiert, ebenso wenig wird die Strömung der Coalgebraiker als solche rezipiert und thematisiert. Für die Explikation und Verteidigung der neuen These ist dies wohl auch nicht wichtig, soweit die geborgten Formalismen ihren Dienst tun.
Ein wesentlicher Schritt heraus aus der Matrix des Dilemmas von Intuition und Formalismus leistet die trans-klassische Intuition und die trans-klassische Formalisierung der Idee der Interaktion wie sie auf der Basis der SKIZZE angedeutet ist. Die neue Konstellation ist allerdings, wie schon anderswo erwähnt, nun die, dass beide Fundiertheiten des Denkens sich aufgelöst haben und eine erfolgreiche Verteidigung einer transklassischen Intuition und zugleich und miteinander verwoben, eines transklassischen Formalismus, sich der Probabilistik einer Akzeption tendenziell entzieht.
"Die Unmöglichkeit historische Katastrophen abzuwenden legt beredtes Zeugnis ab für die erschütternde Unfähigkeit des menschlichen Intellekts angesichts dieser Aufgabe." Günther 1968, p. 187/8
Bei dem Geviert der Thematisierungen wie sie in §1 eingeführt werden, sind nicht nur die vier Grundaspekte in ihrer Isoliertheit zu thematisieren, sondern auch die sechs Relationen der vier Aspekte zueinander.
Ein weiterer Schritt im Sinne einer polykontexturalen Thematisierung, müssen die Aspekte, Bereiche, Schreibweisen usw., die für sich Kontexturen darstellen, in einen kontextlogischen Zusammenhang gebracht werden. So ist Narration nicht einfach nur Narration für sich selbst, sondern auch Narration im Kontext der Formalisierung, also kurz, Narration der Formalisierung, Narration der Implementierung und auch Narration der Realisierung.
Eine weitere Kontextuierung im Sinne einer transklassischen Kontextlogik bzw. Modellierungstheorie ergibt sich bei der Thematisierung nicht der Bereiche selbst, sondern der Relationen zwischen den Bereichen. So wäre etwa die Relation zwischen Narration und Formalisierung vom Standpunkt der Implementierung zu thematisieren. Damit ist die unäre Darstellung der Thematisierungsweisen zu Gunsten von n-ären Relationsgebilden zu erweitern.
Verbunden mit dem Geviert der Thematisierung sind die vier Diamond-Positionen und ihre Iterationen und Akkretionen, die jeweils zu einer These, Position, Statement usw. eingenommen werden können. Zu jedem Satz als Theorem gibt es einen Gegensatz, ein Weder-noch, und ein Beides-ineins, die alle argumentativ gleichberechtigt zur Darstellung gebracht werden müssen und jeweils Horizonte eröffnen oder verschliessen, Spielräume ermöglichen oder entmöglichen.
Als ein Minimalmodell der Dekonstruktion haben sich die DiamondStrategien vielfach bewährt. Es wird jedoch nicht beansprucht, dass mit den DiamondStrategien eine volle Explikation eines Modells der Arbeit der Dekonstruktion zu leisten ist.
Position (Satz, Setzung, Anfang, Affirmation): es gilt A.
Opposition (Gegensatz, Umkehrung, Dualisierung, Reflexion) von A.
Akzeption (Zugleich, Ineins, Sowohl-als-Auch) von Position und Opposition von A.
Rejektion (Verwerfung, Weder-Noch) von Position und Opposition.
Concept Mining ist eine Strategie, die eine flexible Verankerung der Gesamtthematik in der Intertextualität verschiedenster Forschungsrichtungen ermöglicht. Es handelt sich um eine inter- und transdisziplinäre Verbindung mit Ressourcen, die sich nicht durch die Dichotomie von Begriffssprache vs. Formalsprache eingrenzen lässt.
Concept Mining als Strategie ist jedoch nicht identisch mit einem Zitieren und Verlinken von bestehenden inter- und transdisziplinären Knotenpunkten wissenschaftlicher Felder. Sie ist vielmehr das Aufdecken, Desedimentieren, Zusammenführen, Durchdringen von Strömungen, die selbst noch nicht in die mediale Öffentlichkeit des Wissenschaftsbetriebs gelangt sind.
Die Thematisierung des Korpus der Theorie des Machinalen kann weiterhin unter den Aspekten des Formalismus, des Systemismus, des Srtrukturalismus u.a. geschehen.
Es macht auch einen wesentlichen Unterschied, ob die Thematisierung primär im Modus bottem-up oder top-down vollzogen wird.
Werden diese Unterschiede nicht klar erkannt und die Zugangsweisen vermischt, entstehen zwangsläufig unfruchtbare Missverständnisse.
Ein Begriff bedeutet mehr als jedes Diagramm. Ein Bild sagt mehr als tausend Worte.
Entsprechend den vier Thematisierungsstrategien ist die Arbeit Skizze eines Gewebes rechnender Räume in denkender Leere" in vier Grundthemen strukturiert:
A) Der Narrationsthematik entsprechend wird hier die Leitmetapher philosophisch, semiotisch, kenogrammatisch, komparatistisch zur klassischen Konzeption der Theorie des Berechenbaren und Machinalen skizziert.
B) Im Teil Towards a Formal Model of TransComputing" werden die formalen Aspekte im Sinne einer Formalisierung der Metapher als formales Modelling versucht.
C) In Interpretationen" wird die Metapher und die Formalisierung mit verschiedenen Umgebungen verglichen und eine Einbettung als Implementierung angeboten. Ein weiterer Schritt dieser Implementierung würde sich mehr auf den formalen Aspekt der Idee beziehen müssen und eine programmiertechnische Computerimplementierung vornehmen.
D) In Konsequenzen" werden die narrativen, implementativen und formalen Folgen der Idee für eine mögliche Konstruktion im Sinne einer Realisierung skizziert.
Hier wird grundlos, da Gründe unbegründbar sind, die Idee der Orte als Ursprung der Ortschaft der denkenden Leere ins Spiel gebracht. Orte sind keine Ursprünge, da sie weder in Affirmation noch in Negation zur Anwesendheit zu versammeln sind. Trotz ihrer Ortlosigkeit, ist eine Vielheit der Orte im Spiel.
Die Figuren der Ortlosigkeit werden als Markierungen in der Leere in Form von Leerzeichen, genannt Kenogramme, eingeschrieben.
Inskriptionen in der Leere, Kenogramme bilden Leerformen, Morphogramme und tabulare Notationsfelder der Kenogrammatik mit emanativer und evolutiver Strukturation.
Diese kenomischen Leerfolgen von Übergängen werden als Ereignisse verstanden. Ereignisse jenseits von Prozessualität, Dynamik und Transition. Ereignisse in diesem Sinne sind B
Diese Belegung der Kenogramme mit natürlichen Zahlen wird als eine Verkettung von Binärsystemen interpretiert. Jede Zahlenfolge der natürlichen Zahlen wird dekomponiert in ihre Folge von Binärkomponenten.
Leonid A. Levin´s Modell des Computing wird in seinen Grundlagen skizziert. Es liefert das Modell und die Begrifflichkeit des klassischen Modells der Berechenbarkeit und des Machinalen.
Dieses Modell wird am Leitfaden der Distribution der Binärsysteme über der Kenogrammatik disseminiert.
Der Mechanismus der Separation, Diskontexturalität und des Übergangs, Transkontexturalität zwischen rechnenden Räumen", Modellen des Berechenbaren, wird durch den Chiasmus geregelt.
Die eingeführten und operativ genutzten Begriffe des Modells des Computings im Sinne von Levin werden durch die Strategien der Umkehrung und Verschiebung ihrer basalen Dichotomien dekonstruiert.
Das In-der-Welt-sein des TransComputing wird nach Massgabe der vier Weisen der Verwobenheit von Realität und Rationalität, Welt und Logik, in das Geviert des Frameworks der Weltmodelle gesetzt.
Ort, Linie, Baum, Netz, Gewebe, Sprung, Obstakel, Übergang, Wiederholung, Mehrzeitigkeiten, Lücken, Amnesien, rechnender Raum, Berechenbarkeit, Maschine, Interaktion, Lebendigkeit, Weltmodelle, Geviert.
Kenogrammatik, Kenomik, Morphogramm, Chiasmus, Chiastik, Ordnungs-, Umtausch-, Koinzidenzrelation, Polykontexturalität, Diskontexturalität, Transkontexturalität, Kontextur, Rejektion, Akzeption, Transjunktion, Multi-Negationalität, Distribution, Vermittlung, Dissemination, Dekomposition, Monomorphie, Iteration, Akkretion, DiamondStrategies, Concept Mining, Dekonstruktion, Ver-Operatoren, Ko-Kreation, Polykategorientheorie.
computation, graph, events, states, synchronous/asynchronous, deterministic/non-deterministic, location, configuration, sequential/parallel, Turing Machine, Cellular Automata, Pointer Machine; interaction, bisimulation, algebra, co-algebra, induction, co-induction, constructor, destructor, deconstructor, combining logics, self-reflection.
|