Die spontane Matrix

Thesen zu einer Ordnungstheorie von Cyberspace und Internet

Gekürzte und überarbeitete Hypertext-Version1
 
Rolf Martens

Stand: 21.02.1999
Version: 1.c

Versionenkontrolle:
1.a - 02.01.1998
1.b - 12.11.1998 


Inhalt

Einleitung oder: Warum funktioniert das Internet?

Thesen

Schlußfolgerungen

Zur Lage der Informatik: Intelligenz - Formalismen - Technik - Regeln - Ordnung

Anmerkungen

Literatur

Zusammenfassung / Abstract

Über den Verfasser


Einleitung oder: Warum funktioniert das Internet?

Im Zentrum dieser Thesen stehen Betrachtungen zur Entwicklung - zur Evolution - des Computer-Netzwerk-Verbunds Internet. Die Frage, die am Anfang aller Überlegungen stand, ist sehr einfach: Warum funktioniert das Internet?

Natürlich arbeiten innerhalb des Computer-Netzwerk-Verbunds Internet eine Vielzahl von Einzelsystemen, deren Funktionen technisch und algorithmisch genaustens spezifiziert sind. Wie aber erfolgt die Koordination dieser Einzelsysteme im Gesamtverbund? Das Internet hat im Gegensatz zum klassischen Computer kein Betriebssystem, das die Operationen der Einzelsysteme miteinander koordiniert und damit das Gesamtsystem erst betriebsfähig macht. Das Internet hat kein Hauptprogramm, das die Einzelsysteme als Unterprogramme in seine algorithmische Spezifikation einbezieht und sie damit koordiniert. Das Internet als Computer-Verbund hat keinen Zentralcomputer, der seinen dezentralen Subsystemen wohl spezifizierte Aufgaben zuweist und ihre Arbeit damit koordiniert. Für das Internet als Gesamtheit gibt es keinen wohldefinierten Plan, keine streng algorithmisierte Ablaufsteuerung, erst recht keinen mathematisch exakt vorherberechneten Entwurf oder ein "internetweites Datenmodell". Das Internet ist - um ein vielverwendetes Zitat zu variieren - zwar das Resultat menschlichen Handelns, aber nicht das Resultat eines technischen oder algorithmischen Entwurfs. Es gibt einfach keine Spezifikation, kein (Daten-)Modell, keinen menschlichen Entwurf, der das Internet in seiner Gesamtheit so entworfen oder modelliert hätte, wie es sich heute real präsentiert. Warum und wie funktioniert dieser Gesamtverbund dann?

Die hier aufgeworfene Frage ist natürlich nicht neu. Ein interessanter und in letzter Zeit häufig gemachter Vorschlag lautet, Wachstum und Entwicklung offener Computer-Netzwerke gewissermaßen als eine Art organischen Prozeß zu betrachten; das Internet wäre dann, als Ergebnis eines organischen Wachstums, so etwas wie ein Ökosystem. Romantisch veranlagte Autoren verwenden auch gern Termini wie "grassroot technology". Ist das Internet ein Ökosystem? Ökosysteme sind das Resultat der biologischen Evolution und ein anorganisches, elektronisches Artefakt kann sicher nicht direkt auf einer solchen Evolution beruhen. Allerdings kennen wir neben dem Begriff der biologischen Evolution des Organischen auch den Begriff der kulturellen oder besser zivilisatorischen Evolution der menschlichen Gesellschaft. Diese mit ganz eigenen Denkmodellen zu beschreibende zivilisatorische Evolution ist ein Prozeß ständiger Neuschöpfung (Innovation), Veränderung (Variation) und Auswahl (Selektion) von menschlichen Verhaltensweisen, Regeln, Organisationsstrukturen, Institutionen und eben auch von Technik. Und an dieser Stelle treffen Technik und Evolution aufeinander, das Anorganische und Artifizielle wird Gegenstand einer "lebendigen" Evolution, nämlich der immer fortwährenden Innovation, Variation und Selektion von Technik durch menschliches Handeln; das Anorganische ist eine Hervorbringung des Organischen.

Es ist nun vornehmlich in der englischsprachigen Fachliteratur üblich geworden, mit Begriffen wie "ecology" oder "ecosystem" beides zu bezeichnen - das Resultat der biologischen Evolution des Organischen und das Resultat der zivilisatorischen Evolution des Artifiziellen, also etwa das Resultat der Evolution von vernetzten Computersystemen. Erkennt man das Faktische dieser Doppeldeutigkeit an, dann kann ein vernetztes Computersystem wie zum Beispiel das Internet ein "Ökosystem" sein. Aber die Methode der Anwendung von Denkmodellen zur Beschreibung der biologischen Evolution auf die zivilisatorische Evolution ist aus methodologischer und erkenntnistheoretischer Sicht nicht unbedenklich (Extremfall: Sozialdarwinismus) und sollte im Zweifel verworfen werden.

Einen Ausweg aus der genannten Doppeldeutigkeit bot sich für mich in einem Rückgriff auf die Sozialphilosophie Friedrich A. von Hayek's. Dessen "Zwillingsidee von spontaner Ordnung und (zivilisatorischer) Evolution" in gesellschaftlichen Ordnungen kann als das sozialphilosophische Pendant zur "Zwillingsidee von Ökosystem und (biologischer) Evolution" in natürlichen Systemen gesehen werden. Ich versuche im folgenden aufzuzeigen, wie diese Zwillingsidee von spontaner Ordnung und Evolution als Denkmodell nicht nur für die Funktionsweise des Internet, sondern für die Gesamtheit des computer-vermittelten menschlichen Handelns überhaupt fruchtbar gemacht werden kann - als Denkmodell für die Evolution des Cyberspace.

"Cyberspace" ist ein etwas schillernder Begriff, dessen Verwendung in einem wissenschaftlichen Thesenpapier problematisch erscheinen mag. Ich habe mich dennoch entschlossen, diesen Begriff sogar als einen Zentralbegriff zu verwenden, nicht zuletzt gerade wegen seiner Unschärfe: der "Cyberspace" ist eine gedankliche Zusammenfassung aller Interaktionen zwischen Computern, gleichgültig in welcher Form sie auch immer stattfinden. "Cyberspace" ist damit auch eine gedankliche Zusammenfassung aller menschlichen Handlungen, die solche Interaktionen verursachen. Und schließlich - am wichtigsten - betrachte ich den Cyberspace als eine spezifische sozio-technische Ordnung der Gesellschaft, in der jene millionenfachen menschlichen Handlungen und Computer-Interaktionen miteinander koordiniert werden. Aus dieser Sicht ist das Internet also lediglich ein Bestandteil des Cyberspace, wenn auch ein sehr wichtiger, der sich zudem noch für wisenschaftliche Untersuchungen geradezu anbietet.

Inhalt


Thesen

Der Cyberspace ist das Resultat menschlichen Handelns
  Computer, Computer-Netze oder eben der Cyberspace werden normalerweise in einem untrennbaren Zusammenhang mit Information und Informationsverarbeitung gesehen. Auch die Wissenschaftsdisziplin der Informatik wird als "die Wissenschaft, Technik und Anwendung der maschinellen Verarbeitung und Übermittlung von Informationen" 2 definiert. In der Theoriebildung dominieren also informationstheoretische und maschinen-orientierte Ansätze.

Demgegnüber wird in diesen Thesen durchgängig eine handlungstheoretische Sichtweise verwendet. Zur Erklärung von empirisch beobachtbaren Phänomenen im Cyberspace - gleich welcher Art - wird also nicht gefragt, welche Information auf welche Art und Weise verarbeitet worden ist. Es wird vielmehr durchgängig gefragt, welche Art und Weise menschlichen Handelns das beobachtete Phänomen begründet. Vor allem aber werden die im Cyberspace beobachtbaren Phänomene als das Resultat der verschiedenen Handlungen sehr vieler Menschen betrachten; als das Resultat von Handlungen also, die sehr unterschiedliche und auch entgegengesetzte Ziele verfolgen können. Es wird dann hier die Frage gestellt, wie diese vielen, sehr unterschiedlichen Handlungen sehr vieler unterschiedlicher Menschen so miteinander koordiniert werden können, daß sowohl der Cyberspace als Gesamtheit als auch seine Einzelsysteme funktionsfähig bleiben. Aus dieser Fragestellung heraus wird dann eine ordnungstheoretische Sichtweise auf den Cyberspace entwickelt.

Diese Sichtweisen erscheinen aus zwei Gründen notwendig und zulässig. Zum einen läßt sich jeder Akt der Informationsverarbeitung in einem Computersystem auf einen Akt menschlichen Handelns zurückführen, auch wenn die entsprechende Kausalkette vielleicht nur schwer oder gar nicht faktisch rekonstruierbar ist.3 Zum anderen lassen sich in den komplexen Computersystemen des Cyberspace Phänomene beobachten, die mit dem Informationsbegriff wohl nur schwer analysierbar sind, die gleichwohl aber von nicht unerheblicher Bedeutung für den Cyberspace sind. So stellt sich z.B. gerade in der Praxis der Administration von Computern oder Rechenzentren immer wieder die Frage, welchen (potentiellen) Nutzern unter welchen Umständen welche Nutzungsrechte an den Computer-Ressourcen zugeteilt werden sollen. Diese Frage stellt sich auch und gerade dann, wenn die Nutzung dieser Computer oder Rechenzentren durch Zugriff über öffentliche Netzwerke oder eben den Cyberspace erfolgen soll. Die Phänomene, die bei der Erteilung oder Nichterteilung solcher Verfügungsrechte (property rights) an Computer-Ressourcen zu beobachten sind, lassen sich mit dem Begriff der Informationsverarbeitung nur sehr unvollkommen deuten. Es sind vielmehr Phänomene, die das Resultat menschlichen Handelns, d.h. das Resultat der Realisierung menschlicher Ziele und Präferenzen sind und auch als solche - und nicht als informationsverarbeitende Prozesse - gedeutet und erklärt werden müssen. Und es sind gleichzeitig Phänomene, die auf eine bestimmte und noch genauer zu definierende Ordnung menschlichen Handelns verweisen.

Nun sind Computer oder der Cyberspace virtuelle Handlungsräume, sie sind virtuelle Realitäten. Darunter soll hier die Tatsache verstanden werden, daß der Mensch niemals direkt in den Handlungsräumen eines Computers oder Computer-Netzwerks handeln kann. Menschen können lediglich an der und mit der Mensch-Maschine-Schnittstelle eines Computers, eines Computer-Netzwerks oder des Cyberspace handeln. Sie können lediglich über diese Schnittstelle eine bestimmte Software aktivieren, die dann im Computer oder im Cyberspace operiert. Wenn also ein menschliches Individuum mit Hilfe von Computern oder dem Cyberspace irgendein Ziel erreichen und das heißt, wenn ein menschliches Individuum mit Hilfe von Computer und Cyberspace handeln will, muß dieses Individuum eine bestimmte Software mit den entsprechenden Operationen "beauftragen". In diesen Thesen wird der Argumentation von Guy Kirsch und Jürg Kohlas gefolgt, nach der alle theoretischen Überlegungen zu Mensch-Maschine-Systemen strikt von der unterschiedlichen Dignität von Mensch und Maschine respektive Software auszugehen haben.4 Für das Verhältnis von Mensch und Software muß also ein Ansatz gefunden werden, der die unterschiedliche Dignität von Mensch und Software durch eine hierarchische Struktur5 berücksichtigt und gleichzeitig der Virtualität des Handlungsraums Cyberspace Rechnung trägt.

Das Verhältnis von Mensch und Software wird daher in diesen Thesen durchgängig und ausschließlich mit dem Modell einer Prinzipal-Agent-Relation beschrieben. Mensch und Software stehen immer in einem Prinzipal-Agent-Verhältnis, d.h. das Individuum (Prinzipal) beauftragt eine bestimmte Software (Agent) mit Operationen (Aktivitäten), die der Erreichung bestimmter, durch den Prinzipal gesetzter Ziele dienen. Eine so definierte Agenten-Eigenschaft von Software gilt unabhängig von der algorithmischen Komplexität der betreffenden Software, d.h. jede Software, also jedes durch eine elektronische Maschine ausführbare Programm wird in diesen Thesen unabhängig von seinen sonstigen Eigenschaften als Agent menschlichen Handelns betrachtet.6

Wesentlich für die Argumentation in diesen Thesen ist nun folgender Gedanke: die determinierte und deterministische Spezifikation von Software (s.u.) kann niemals menschliches Handeln in einer Mensch-Software-Interaktion determinieren. Die deterministische und determinierte Spezifikation von Software kann zwar den Handlungsspielraum eines Menschen in der Mensch-Software-Interaktion einschränken, aber menschliches Handeln bleibt bezüglich einer Mensch-Software-Interaktionen immer indeterminiert, d.h. durch Willensentscheidungen, Präferenzen und Eigeninteressen bestimmt. Es kann und soll in diesen Thesen offen bleiben, ob diese Willensentscheidungen, Präferenzen und Eigeninteressen des Menschen ihrerseits durch außerhalb der Mensch-Software-Interaktion liegende Determinaten bestimmt werden oder nicht und ob diese Determinaten wissenschaftlich beschrieben werden können oder nicht. Wichtig ist hier nur die Tatsache, daß technische oder algorithmische Spezifikationen allein menschliches Handeln an den Mensch-Maschine-Schnittstellen eines Computers oder des Cyberspace nicht determinieren können. Zumindest verbleibt dem Individuum immer die Entscheidung, eine Mensch-Software-Interaktion abzubrechen. Dies bedeutet aber, daß die Art und Weise des Handelns von Menschen an den Mensch-Maschine-Schnittstellen des Cyberspace und damit die empirisch beobachtbaren Phänomene im Cyberspace nicht einfach erklärt werden können, indem man die technisch determinierten "Systemspezifikationen" einzelner Systeme im Cyberspace erklärt.

Die Annahme des Modells einer Prinzipal-Agent-Relation zwischen Mensch und Software begründet sich demnach in der offensichtlichen Tatsache, daß die Operationen von Software die einzige Möglichkeit sind, menschliche Handlungen und damit auch immer menschliche Ziele, Präferenzen und Willensentscheidungen in Computern und im Cyberspace zu "vergegenständlichen"7. Unter diesen Bedingungen führt der Versuch einer handlungs- und ordnungstheoretischen Sichtweise des Cyberspace notwendig zu dualen Erklärungen und Deutungen. Will man ein bestimmtes empirisch im Cyberspace beobachtbares Phänomen erklären, dann muß man es einerseits als das Ergebnis menschlichen Handelns an den Mensch-Maschine-Schnittstellen des Cyberspace interpretieren und andererseits als das Resultat der Operationen von Software im Cyberspace. Will man erklären, wie das Handeln sehr vieler Menschen mit unterschiedlichen und auch gegensätzlichen Zielen bezüglich des Cyberspace koordiniert wird, so muß man einerseits die Koordination des menschlichen Handelns an den vielfältigen Mensch-Maschine-Schnittstellen des Cyberspace und andererseits die Koordination der Operationen der vielfältigen Software-Agenten im Cyberspace zu erklären suchen.

Inhalt


Software - Genotyp und Phänotyp1

Software wird hier als die Realisierung eines deterministischen, determinierten, terminierenden oder nichtterminieren Algorithmus betrachtet, sie ist also die Realisierung ("Abarbeitung") eines Verfahrens "mit einer präzisen (d.h. in einer genau festgelegten Sprache abgefaßten) endlichen Beschreibung unter Verwendung effektiver (d.h. tatsächlich ausführbarer) elementarer (Verarbeitungs-) Schritte"2. Der Begriff Software umfaßt also alle Realisierungen von Algorithmen, die die folgenden Eigenschaften haben:3

  1. Die Algorithmen sind deterministisch, d.h. bei der schrittweisen Abarbeitung des Algorithmus gibt es zu jedem Zeitpunkt und für jeden Einzelschritt genau einen, eindeutig bestimmbaren Folgeschritt.
  2. Die Algorithmen sind determiniert, d.h. ein Algorithmus ist eine eindeutige Abbildungsfunktion f:E->A. Für jede zulässige Menge von Eingabedaten E existiert also genau eine, eindeutig bestimmbare Menge von Ausgabedaten A.
  3. Die Algorithmen besitzen eine endliche Länge (statische Finitheit) und dürfen im Zuge ihrer Abarbeitung nur endliche Ressourcen erfordern (dynamische Finitheit).
  4. Die Algorithmen sind im allgemeinen terminierend, d.h. das Verarbeitungsverfahren liefert für jede zulässige Menge von Eingabendaten E die entsprechende Menge von Ausgabedaten A nach endlich vielen Verabeitungsschritten und beendet dann die Verarbeitung. In bestimmten Fällen sind auch nichtterminierende Algorithmen zulässig oder notwendig, z.B. bei der Realisierung von Betriebssystemen.
In der Theoretischen Informatik ist es aber notwendig und wesentlich, "die Mitteilung oder Formulierung von Algorithmen deutlich von ihrer Realisierung durch ein Programm, durch einen Schaltkreis, eine mechanische Vorrichtung usw. zu trennen. Algorithmen haben eine davon unabhängige Existenz und können durchaus auf sehr verschiedene Arten mitgeteilt werden"4. Wird nun aber ein Algorithmus in einer bestimmten Programmiersprache auf einem Computer oder in einem Computer-Netzwerk implementiert, dann entsteht Software. Software ist dann eine "energetisch realisierbare, effektive, und daher auch physische" Bewegungsform5. Softwareprogramme können damit als "aktionsfähige Instanzen"6 energetisch in einem bestimmten Operationsraum agieren (operieren). Wird innerhalb eines Computers oder innerhalb einer beliebigen anderen Hardwarestruktur ein Algorithmus abgearbeitet, so wird mit jedem Einzelschritt dieser Abarbeitung (Operation) die Hardware von einem Zustand Z(t) in einen Zustand Z(t+1) überführt.

Unter einem Operationsraum von Software soll demgemäß in diesen Thesen die Gesamtheit der Hardware verstanden werden, deren Zustand Z(t) durch diese Software beeinflußt werden kann, entweder direkt oder indirekt durch Interaktion mit anderer, in diesem Operationsraum befindlicher Software.

Unter einer Operation7 von Software im Operationsraum soll hier jede Zustandsänderung op(f,Z):Z(t)->Z(t+1) eines beliebigen Hardware-Teils im Operationsraum verstanden werden, die durch einen beliebigen Einzelschritt bei der Abarbeitung des Algorithmus dieser Software hervorgerufen wird.

Der Algorithmus einer Software bestimmt nun lediglich die formale Funktion f:E->A, d.h. die Abbildung einer Menge von Eingabedaten E auf eine Menge von Ausgabedaten A. Der Algorithmus, also die Menge der möglichen Abbildungen f:E->A, ist der Genotyp einer Software. Die (operierende) Software selbst, also die Menge der möglichen Operationen op(f,Z):Z(t)->Z(t+1) ist demgegenüber ein Phänotyp, weil diese Operationen vom Algorithmus f (Genotyp der Software) und vom Zustand Z der Hardware im Operationsraum (Umwelt der Software) abhängig sind. Anders gesagt, die Operationen von Software sind nicht schlechthin identisch mit dem Algorithmus der Software, sondern die Operationen sind die Wirkungen, die der Algorithmus der Software in einer bestimmten Umwelt (Menge der möglichen Zustandsänderungen der Hardware) entfaltet.

Nur der Genotyp von Software, also der Algorithmus bzw. die Abbildungsfunktion f:E->A, kann determiniert sein und nur dessen Determiniertheit kann mit einem formalen Korrektheitsbeweis nachgewiesen werden. Der Phänotyp Software, also die Menge aller Operationen op(f,Z):Z(t)->Z(t+1), kann auch bei einem (nachgewiesen) deterministischen und determinierten Genotyp indeterminiertes Verhalten zeigen, weil eine determinierte Menge der Ausgabedaten A bei einem Anfangs-Hardwarezustand ZA1(t) zu einem End-Hardwarezustand ZE1(t+1) führen und die gleiche Menge A bei einem Anfangs-Hardwarezustand ZA2(t) aber zu einem ganz anderen End-Hardwarezustand ZE2(t+1) führen kann. Eine solche Indeterminiertheit der Operationen der Software könnte nur dann vermieden werden, wenn die Abbildungsfunktion f:E->A die Menge aller Operationen op(f,Z):Z(t)->Z(t+1) determiniert und deterministisch abbildet. Dann - und nur dann - würde der Algorithmus die Operationen der Software vollständig predeterminieren und damit nicht nur die Ausgabefunktion des Algorithmus, sondern auch die Operationen der Software vorhersagbar machen.

Eine solche Indeterminiertheit der Operationen von Software wird zumindest immer dann auftreten, wenn es nicht gelingt, alles relevante Tatsachenwissen über die Umwelt, in der der Algorithmus abgearbeitet wird, im Algorithmus selbst zu erfassen. Dann kann es auch nicht gelingen, die Wirkungen des Algorithmus, also die Operationen der Software im Algorithmus vollständig zu predeterminieren. Die Antwort auf die eher philosophisch zu beantwortende Frage, ob die Operationen der Software in diesem Fall "objektiv indeterminiert" sind oder nur "subjektiv indeterminiert erscheinen"8, ist für die hier in Rede stehenden Betrachtungen eigentlich irrelevant. Jeder Algorithmus wird von konkreten, nicht-allwissenden Individuen entworfen und zu einem konkreten Zeitpunkt als Software implementiert. Der Determinismus und die Determiniertheit eines jeden Algorithmus kann also nur - und nur - das notwendig (subjektiv) beschränkte Wissen eines oder mehrerer Individuen umfassen und er kann vor allem jenes Wissen nicht berücksichtigen, das erst nach seiner Implementation, in welcher Form auch immer, verfügbar wird. Das heißt, der determinierte und deterministische Algorithmus eines Software-Agenten umfaßt notwendig immer nur einen individuell, lokal und temporär beschränkten Ausschnitt des gesamten verfügbaren Wissens und kann nur diesen Ausschnitt determiniert und deterministisch in seiner Funktion f:E->A abbilden. Wird ein Algorithmus als Software implementiert, dann wird diese auf einen bestimmten Wissensausschnitt beschränkte Determiniertheit "energetisch fixiert" und kann zu energetisch realisierbaren Operationen der Software in einem bestimmten Operationsraum führen. Wird nun im Zuge dieser energetisch realisierten Operationen lokal oder temporär ein Bereich des Operationsraums erreicht, dessen Beschaffenheit in der determinierten und deterministischen Abbildungsfunktion f:E->A nicht oder nicht vollständig spezifiziert ist, dann werden auch die Wirkungen dieses Algorithmus in diesem Bereich, also die Operationen der Software objektiv indeterminiert.

Inhalt


Software in einem konstruktiv abgeschlossenen Operationsraum

Für einen konstruktiv abgeschlossenen Operationsraum von Software kann das relevante Tatsachenwissen systematisch und vollständig zusammengetragen werden und zwar über

  1. den Operationsraum selbst (die Hardware und die mögliche Menge ihrer inneren Zustände Z);
  2. alle involvierten Software-Agenten (ihren Genotyp Algorithmus und ihren Phänotyp, d.h. die Menge ihrer möglichen Operationen);
  3. die Ziele und Zwecke, die die Individuen mit dem Einsatz von Software-Agenten verfolgen (sollen).
Die Formulierung "Vollständigkeit alles relevanten Tatsachenwissens" darf natürlich nicht so eng ausgelegt werden, daß sie wirklichkeitsfremd wird. Vollständigkeit bedeutet nicht notwendig, daß dieses Wissen physisch an einem bestimmten Ort zusammengefaßt wird. Als "vollständig" soll dieses Tatsachenwissen dann angesehen werden, wenn die Individuen, die Software in dem betreffenden Operationsraum einsetzen wollen, in der Lage sind, sich benötigtes Tatsachenwissen auf allgemein übliche Weise und mit vertretbarem Aufwand zu beschaffen. Vollständigkeit des Tatsachenwissens bedeutet ebenfalls nicht, daß im Operationsraum keine unvorhergesehenen Ereignisse auftreten können.1 "Vollständig" ist dieses Tatsachenwissen bereits dann, wenn unvorhergesehene Ereignisse im Operationsraum an Hand dieses Wissens - also vor allem an Hand formaler Daten- und Prozeßmodelle - eindeutig als technische Fehlfunktion oder Fehlbedienung erkannt werden können. Die Ursache der Fehlfunktion kann durchaus unbekannt sein und eine lange Fehlersuche erfordern. Bedingung ist hier lediglich, daß Unvorgesehenes als technische Fehlfunktion erkennbar sein muß.

Diese konstruktive Abgeschlossenheit des Operationsraums von Software und die (formale) Vollständigkeit alles relevanten Tatsachenwissens über diesen Operationsraum stellen notwendige Bedingungen für den Entwurf von Algorithmen dar, die nicht nur die Datenmanipulationsfunktion f:E->A deterministisch und determiniert abbilden, sondern auch eine deterministsiche und determinierte Abbildung der Menge der möglichen Operationen op(f,Z):Z(t)->Z(t+1) eines Software-Agenten bilden. Nur unter den Bedingungen eines konstruktiv abgeschlossenen Operationsraums kann auch die Wirkung des Algorithmus auf die Hardware, also der Phänotyp Software durch den Genotyp Algorithmus vollständig predeterminiert und vorhersagbar werden.

Inhalt


Software in einem konstruktiv nicht abgeschlossenen Operationsraum

Ein konstruktiv nicht abgeschlossener Operationsraum von Software ist ein offener Raum, in dem

  1. die Zahl der in ihm operierenden Software-Agenten unbegrenzt ist und
  2. die Art der Software und die Art und Weise ihres Einsatzes durch die Individuen frei entschieden werden kann.
Auch diese Formulierung darf nicht überinterpretiert werden. "Unbegrenzt" meint natürlich nicht "unendlich", sondern nur, daß die Anzahl der Software-Agenten im Operationsraum nicht a priori einer Obergrenze unterliegt und jedenfalls sehr hoch sein kann. Auch die Entscheidung der Individuen über den Einsatz der Software ist nicht frei im Sinne von "völlig losgelöst". Auch hierbei existieren natürlich einzuhaltende (technische und nicht-technische) Bedingungen und Regeln, deren Natur noch zu besprechen sein wird.

Die unbeschränkte Zahl und die unbegrenzte Variabilität der Software, sowie die Größe des Operationsraums führen dann aber zu einer systematischen Unwissenheit hinsichtlich der Gesamtheit aller relevanten Tatsachen im Operationsraum. Insbesondere kann nun aus einer unvorhergesehenen Operation eines Software-Agenten nicht mehr a priori auf eine technische Fehlfunktion geschlossen werden, da weder die Gesamtheit aller möglichen und korrekten Operationen von Software im Operationsraum, noch die Gesamtheit aller möglichen Zustände Z der Hardware im Operationsraum bekannt sind. Vielmehr wird das Auftreten unvorhergesehenen Verhaltens von Software in vielen Fällen lediglich zur Entdeckung von - dem Beobachter - bisher unbekannten, gleichwohl aber korrekten Software-Operationen oder Hardware-Zuständen führen.

Unter den Bedingungen eines konstruktiv nicht abgeschlossenen Operationsraums kann also wegen der systematischen Unwissenheit hinsichtlich aller relevanten Tatsachen kein Algorithmus mehr entworfen werden, der in seiner deterministischen und determinierten Datenabbildungsfunktion f:E->A auch eine deterministische und determinierte Abbildung der Menge aller denkbaren Operationen op(f,Z):Z(t)->Z(t+1) einschließen würde. Ein fiktiver "allwissender" Algorithmus würde zumindest die Bedingung der statischen und dynamischen Finitheit nicht mehr erfüllen. Die Operationen der Software müssen also in einem konstruktiv nicht abgeschlossenen Operationsraum notwendig indeterminiert sein, d.h. der Phänotyp Software wird nicht mehr durch seinen Genotyp Algorithmus vollständig predeterminiert und ist damit in seinen Operationen nicht mehr vollständig vorhersagbar.

Unter den Bedingungen eines konstruktiv nicht abgeschlossenen Operationsraums kann der Algorithmus f:E->A nicht mehr die "volle empirische Wirklichkeit"1 dieses Operationsraums und der möglichen Operationen von Software in ihm abbilden. Der Entwurf (und der Entwerfer) des Algorithmus muß sich also notwendig darauf beschränken, im Algorithmus bestimmte Normen und Standards abzubilden, die für die Operationen op(f,Z):Z(t)->Z(t+1) der Software gelten sollen. Der Entwerfer des Algorithmus wird weiterhin gewisse regelhafte Erwartungen2 über den Operationsraum und die in ihm befindliche, sonstige Software bilden und diese Erwartungen ebenfalls in der Algorithmen-Funktion f:E->A abbilden. Die wesentlichste dieser Erwartungen eines Entwerfers besteht wahrscheinlich in der Erwartung, daß von den Algorithmen anderer Software die gleichen Normen und Standards für op(f,Z):Z(t)->Z(t+1) abgebildet werden, die der eigene Algorithmus abbildet. Die algorithmische Funktion f:E->A wird also nicht mehr eine vollständige "Ablaufsteuerung" der Operationen der Software und ihrer Koordinationen mit anderer Software enthalten, sondern nur noch bestimmte Regeln für diese Operationen und ihre Koordination, deren Einhaltung regelmäßig erwartet wird.

In einem konstruktiv nicht abgeschlossenen Operationsraum erfolgt damit die Koordination der Operationen von Software regel-orientiert, also ohne die Konstitutierung neuer "übergeordneter" Software mit einem eigenen Algorithmus. Die Koordination unterschiedlicher Software im gemeinsamen Operationsraum erfolgt, indem sowohl die Operationen der Software als auch die Handlungen der Individuen, die diese Software zur Verfolgung ihrer Ziele einsetzen, im Rahmen gewisser - mehr oder weniger exakt spezifizierter, explizit oder implizit formulierter (nicht notwendig formalisierter!) - Regeln erfolgen. Die tatsächlichen Operationen der Software und die tatsächlichen Handlungen der Individuen können innerhalb dieses Regel-Rahmens jedoch sehr unterschiedliche Formen und Inhalte annehmen, da die Operationen der Software nicht in einem Algorithmus vollständig predeterminiert sind und die Handlungen nicht notwendig einem vorher festgelegten Plan folgen. Diese Operationen und Handlungen sind auch nicht vorhersagbar, da sie von den konkreten, ex ante unbekannten lokalen und zeitlichen Umständen, unter denen die Operationen der Software und die Handlungen der Individuen stattfinden, abhängig sind.

Inhalt


Der Cyberspace ist ein konstruktiv nicht abgeschlossener Operationsraum für Software

In diesen Thesen wird die Natur des Operationsraums von Software vor allem erkenntnistheoretisch definiert: es wird unterschieden zwischen solchen Operationsräumen, über die vollständiges Tatsachenwissen existiert (und für die dieses Wissen in einem Algorithmus oder Datenmodell abgebildet werden kann) und solchen Operationsräumen, über die nur unvollständiges Tatsachenwissen existiert. Eine Konkretisierung dieser Definitionen durch Einbeziehung technikwissenschaftlicher Kategorien kann hier nur vorläufig geleistet werden und führt zu folgenden (provisorischen) Definitionen, die gewissermaßen eine Art Extremwert-Annahme darstellen:

  1. Software, die direkt oder indirekt (durch Koordination mit anderer Software) nur an eine einzige Zentraleinheit (CPU) Anweisungen erteilt, befindet sich in einem konstruktiv abgeschlossenen Operationsraum. Dieser wird im weiteren als Computer bezeichnet.
  2. Software, die direkt oder indirekt Anweisungen an mehr als eine Zentraleinheit (CPU) erteilt, befindet sich in einem konstruktiv nicht abgeschlossenen Operationsraum. Dieser wird im weiteren als Cyberspace bezeichnet.1
Der Terminus Cyberspace wird in diesen Thesen verstanden als eine gedankliche Zusammenfassung2 aller Operationen, also aller Zustandsänderungen von Hardware op(f,Z):Z(t)->Z(t+1), die von Software außerhalb des Computers hervorgerufen werden, auf dem die jeweils operierende Software implementiert ist. Dabei werden diese Operationen der Software immer auf eine Agenturbeziehung zu den Handlungen von Menschen zurückgeführt, d.h. die Operationen der Software werden immer als das Resultat einer menschlichen Handlung betrachtet. Dies bedeutet aber, daß der Cyberspace dem Menschen nicht als "eigendynamisches System" mit einer eigenen, wie auch immer gearteten Dignität gegenübertritt. Der Cyberspace ist vielmehr die - größtenteils unbeabsichtig, ungeplant und unreflektiert entstandene - Resultante der Bestrebungen und Handlungen derjenigen Individuen, die ihre Ziele mit Hilfe der Operationen von Software im Cyberspace zu verwirklichen suchen, sowie die Resultante der Interaktionen dieser Software.3

Der Terminus Cyberspace wird weiterhin verwendet als eine gedankliche Zusammenfassung aller technischen Möglichkeiten für die Operationen von Software außerhalb des eigenen Computers, also die Gesamtheit aller Computer-Netzwerke, "Data-Highways", Modem-Leitungen, Satelliten-Verbindungen etc pp., die einer, auf einem bestimmten Computer implementierten Software die Veränderung des Zustands von Hardware in einem anderen Computer ermöglichen. Auch in technischer Hinsicht ist der Cyberspace also kein einheitliches technisches System (im Gegensatz zu seinen Bestandteilen, etwa einen konkreten Computer-Netzwerk), sondern ebenfalls die Resultante unterschiedlicher, aber vielfach verflochtener technischer Strukturen.

Inhalt


Der Cyberspace ist ein komplexes Phänomen

Im Cyberspace sind die Art und Anzahl der auftretenden Software-Agenten, sowie die Art und Weise ihrer Operationen - d.h. die Art und Weise, in der die jeweilige Software den inneren Zustand von Hardware im Cyberspace verändert - nicht mehr detailliert vorherzusagen, da die für eine solche Voraussage notwendige Datenmenge nicht mehr erfaßt werden kann. Diese systematische Unwissenheit hinsichtlich der Gesamtheit des Tatsachenwissens über Software-Operationen und Hardware-Zustände führt jedoch nicht zu einer Situation, in der "gar nichts mehr" über die im Cyberspace beobachtbaren Phänome ausgesagt werden könnte. Der Cyberspace stellt sich vielmehr selbst als ein "Komplexes Phänomen"1 dar. Innerhalb dieses komplexen Phänomens sind sich regelmäßig wiederholende Muster von Aktivitäten oder Geschehnissen wahrnehmbar. Diese Muster können erkannt werden (Mustererkennung, pattern recognition) und sind damit sowohl von wissenschaftlichen Interesse als auch wissenschaftlicher Erklärung zugänglich. Dies bedeutet aber auch, daß der Output des Cyberspace als Reaktion auf einen konkreten Input in der Regel nur in Form einer "Mustervoraussage" (pattern prediction) voherbestimmt werden kann, also als Vorhersage eines abstrakten Musters, das eine unendlich große Zahl von konkreten Realisationen einschließen kann. Der Cyberspace kann zwar nicht mehr in seiner Gesamtheit durch ein formales Modell beschrieben werden, aber "...die Voraussage, daß unter genau umrissenen Umständen das Muster einer bestimmten Art erscheinen wird, ist eine falsifizierbare (und deshalb empirische) Aussage"2.

Diese so erkannten Muster sind die Abbildung von polyzentral geplanten oder spontan entstandenen inneren Strukturen des Cyberspace.3 Diese inneren Strukturen betreffen vor allem Standards, Normen und Regeln zur Koordination des menschlichen Handelns an den Mensch-Maschine-Schnittstellen des Cyberspace und zur Koordination der im Cyberspace operierenden Software-Agenten der handelnden Individuen.

Inhalt


Der Cyberspace ist das Ergebnis einer sozio-technischen Regel-Evolution

Der Begriff Cyberspace wird hier als Bezeichnung für einen Operationsraum von Software verwendet, in dem sowohl die Anzahl der partizipierenden Individuen als auch die Anzahl der in ihm agieren Software-Agenten prinzipiell unbeschränkt oder jedenfalls sehr groß ist. Cyberspace meint weiterhin eine gedankliche Zusammenfassung einer Vielzahl verschiedener, mit einander verflochtener technischer Systeme (z.B. Computernetzwerke), die eine Operation von Software über ihren "Heimatcomputer" hinaus erlauben. Unter diesen Bedingungen kann aber die Entstehung von Regeln innerhalb dieser technischen Systeme auf sehr unterschiedlichen Wegen erfolgen:

  1. Die Regeln für ein bestimmtes technisches System des Cyberspace können zentral und verbindlich für das gesamte System geplant und realisiert werden. Voraussetzung dafür ist jedoch eine mit entsprechenden Befugnissen ausgestatte zentrale Planungsinstanz für dieses technische System. Es wird aber zu zeigen sein, daß im Cyberspace bereits heute Computer-Netzwerke existieren, die keine derartige Zentral-Instanz haben.
  2. In einem hinreichend großen und offenen System des Cyberspace (z.B. in einem weltweiten Netzwerk-Verbund) können Regeln auch polyzentral geplant und realisiert werden. Die so entstehenden Regeln können dann wettbewerblich gegen konkurrierende Regeln als de-facto-Netz-Standard durchgesetzt werden. Polyzentral geplante und funktionell identische oder ähnliche Regeln können allerdings innerhalb des Cyberspace oder innerhalb eines der den Cyberspace bildenden technischen Systeme ebenso koexistieren.
  3. Regeln des Cyberspace können aber auch durch das Handeln vom Individuen spontan entstehen, ohne daß die Entstehung einer Regel explizit geplant worden wäre, und dann als informelle Verhaltensregeln institutionalisiert werden.
Diese unterschiedlichen Entstehungsweisen von Regeln verweisen auf eine entscheidende Eigenschaft des Cyberspace. Der Cyberspace ist das Ergebnis einer sozio-technischen Evolution, diese Evolution erfolgt in Form einer ständigen, polyzentralen Variation, Selektion und Stabilisierung der geltenden Regeln durch die am Cyberspace partizipierenden Individuen (Regelevolution). Es wird hier davon ausgegangen, daß Regelbildungsprozesse innerhalb des Cyberspace nur mit dem Modell sozialer Evolutionsprozesse angemessen theoretisch rekonstruiert werden können.1

Dieser wettbewerbliche Evolutionsmechanismus von konkurrierenden Regeln und Regelsystemen (Regelevolution) im Cyberspace führt im Resultat nicht nur zu einer erheblich vielfältigeren, sondern auch zu einer erheblich robusteren Institutionalisierung von Strukturen im Cyberspace, als dies durch die zentrale und auf formalen Modellen beruhende Festlegung von Anwendungsstandards im Cyberspace gelingen könnte.

Inhalt


Der Cyberspace ist kein System, sondern eine Ordnung

In diesen Thesen wird der Cyberspace als ein konstruktiv nicht abgeschlossener Operationsraum für Software betrachtet, für dessen Nutzer eine systematische Unwissenheit über die Gesamtheit des relevanten Tatsachenwissens besteht, da keine vollständigen formalen Modelle über die Gesamtheit dieses Operationsraums existieren (was sehr detailliertes Tatsachenwissen und entsprechende formale Modelle über einzelne Bereiche natürlich nicht ausschließt). Damit aber Software in einem solchen Operationsraum überhaupt sinnvoll eingesetzt werden kann, müssen die Individuen, die Software als Agenten einsetzen, in der Lage sein, regelhafte Erwartungen1 über diejenigen Bereiche des Operationsraums aufzubauen, über die sie kein ausreichendes Tatsachenwissen besitzen. Der Operationsraum muß also eine von Einzel-Tatsachen unabhängige innere Struktur besitzen - er muß geordnet sein. Die Ordnung des Cyberspace ist demnach ein Sachverhalt, "in dem eine Vielzahl von Elementen verschiedener Arten in solcher Beziehung zueinander stehen, daß wir aus unserer Bekanntschaft mit einem räumlichen oder zeitlichen Teil des Ganzen lernen können, richtige Erwartungen bezüglich des Restes zu bilden, oder doch zumindest Erwartungen, die sich sehr wahrscheinlich als richtig erweisen werden"2. Eine solche Ordnung des Cyberspace ergibt sich dann aus den Handlungen der Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace und den Operationen der Software im Cyberspace, wenn diese Handlungen und Operationen durch Regeln aufeinander abgestimmt sind und koordiniert werden. Erst die Existenz von Regeln, d.h. die Existenz in der Realität wahrnehmbarer Regelmäßigkeiten in der "Coexistenz oder Aufeinanderfolge von Erscheinungen"3 im Cyberspace, erlaubt die erfolgreiche Bildung solcher Erwartungen.

Das Handeln der Menschen an den Mensch-Maschine-Schnittstellen der Ordnung Cyberspace unterscheidet sich also in einem wesentlichen Punkt vom Handeln der Menschen an den Mensch-Maschine-Schnittstellen eines "elektronischen Systems": das Handeln der Individuen an den Schnittstellen eines elektronischen Systems beruht auf einem vollständigen Wissen über die genau spezifizierte, d.h. vorhersagbare oder vorherberechenbare Gesamtfunktion dieses Systems. Es ist für diese Betrachtungen - zunächst - unerheblich, ob der Einzelne im Einzelfall diese Spezifikation auch vollständig zur Kenntnis nimmt oder nehmen kann. Wichtig ist, daß die exakte Gesamtspezifikation eines solchen elektronischen Systems prinzipiell existiert und damit das Verhalten des Systems exakt vorhersagbar wird. Entsteht nun aber zum Beispiel durch Vernetzung sehr vieler bislang isoliert betriebener Computer oder anderer Hardwarestrukturen ein konstruktiv nicht abgeschlossener Operationsraum für Software, dann verändern sich sowohl die Charakteristika des Handelns von Individuen an den Schnittstellen als auch der Charakter dieses Operationsraums selbst. Das Handeln der Individuen beruht jetzt nur noch teilweise auf exakt spezifiziertem Wissen, z.B. auf dem exakten Wissen über die Funktionsweise bestimmter Einzelsysteme oder auf der detaillierten Kenntnis bestimmter, lokal oder temporär begrenzter Teilbereiche des Operationsraums. Hinsichtlich anderer Einzelsysteme, anderer Teilbereiche des Operationsraums und vor allem hinsichtlich der Gesamtheit des Operationsraums bilden die Individuen - mangels vollständigen, exakt spezifizierten Tatsachenwissens - lediglich noch regelhafte Erwartungen hinsichtlich des regelmäßigen Auftretens normativ-technischer (Standards und Normen) oder auch nur empirisch wahrgenommener Muster. Der Charakter dieses vernetzt strukturierten Operationsraums verschiebt sich damit vom (technischen) System zur (sozio-technischen) Ordnung.

Der Cyberspace - also die gedankliche Zusammenfassung aller Operationen von Software außerhalb ihres Computers und damit auch die gedankliche Zusammenfassung aller Operationsräume für Software - ist somit eine neue Ordnung der Gesellschaft, in der das Handeln von Millionen Individuen und die Operationen ihrer Software miteinander koordiniert werden. Diese sozio-technische Ordnung Cyberspace tritt also neben andere Ordnungen der Gesellschaft, wie Rechtsordnung oder Wirtschaftsordnung, und ergänzt diese4.

Das, teils auf exaktem Wissen und teils auf regelhafter Erwartung beruhende, Handeln der Menschen an den Mensch-Maschine-Schnittstellen des Cyberspace entspricht dabei grundsätzlich dem Handeln in anderen Ordnungen der Gesellschaft. Auch die Rechtsordnung einer Gesellschaft erlaubt es beispielsweise handelnden Personen lediglich, regelhafte Erwartungen über das Verhalten anderer Personen aufzustellen, nämlich vor allem die Erwartung, daß sich andere Personen entsprechend den gesetzlichen Regeln verhalten werden. Eine solche Erwartung wird meist erfüllt und manchmal enttäuscht, wenn sich besagte andere Personen nicht gesetzeskonform verhalten. Aber auch bei vollständiger Erfüllung dieser Erwartung, also bei Einhaltung aller Gesetze durch alle, ist diese erfüllte Erwartung ja nur ein Muster zu erwartenden Handelns und noch keine exakte Vorhersage über das tatsächliche, konkrete Verhalten anderer Personen oder Organisationen. Denn auch innerhalb dieses Verhaltens-Musters, also innerhalb des gesetzlichen Rahmens ist ja eine unendliche Vielfalt von (legalen) Handlungsmöglichkeiten gegeben, deren Eintreten oder Nichteintreten nicht anhand gesetzlicher Regeln vorhergesagt werden kann. Eine solche exakte Vorhersage ist nur, wenn überhaupt, aufgrund sehr detaillierter Einzelfall- und Personenkenntnis möglich.

Inhalt


Die sozio-technische Ordnung Cyberspace ist eine polyzentrale und spontane Ordnung

Die Definition des Cyberspace als einer Ordnung, in der die handelnden Individuen Muster von Regelmäßigkeiten wahrnehmen, auf der Grundlage dieser Wahrnehmungen regelhafte Erwartungen bilden und dann ihre Handlungen an diesen Erwartungen - und das heißt, an den wahrgenommenen Regelmäßigkeiten oder eben Regeln - ausrichten, läßt einige Fragen offen. Erstens, wie entstehen die wahrgenommen Regelmäßigkeiten oder Regeln? Zweitens, welche Wirkung haben diese Regeln auf das Handeln der Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace und auf die Operationen der Software im Cyberspace? Drittens, welche Arten der Ordnung1 entstehen durch das Handeln der Individuen und die Operationen von Software, wenn diese einerseits regelgeleitet sind und andererseits auf konkretem, exaktem Wissen hinsichtlich bestimmter Einzel-Tatsachen beruhen?

Hinsichtlich der Frage nach der Entstehung der Regeln im Cyberspace wird in diesen Thesen ausschließlich positiv argumentiert. Das bedeutet für den Begriff "Regel", daß hier unter diesem Begriff nur empirische, in der Realität beobachtbare Regelmäßigkeiten verstanden werden. Diese beobachtbaren Regelmäßigkeiten können ihre Ursache in der Einhaltung normativer, insbesondere gesetzlicher Regeln haben. Solche Regelmäßigkeiten können aber auch durch Anwendung technischer Standards oder Beachtung moralischer Regeln entstehen. Sie können ebenso das Ergebnis einer algorithmisch programmierten Regelmäßigkeit sein. Vor allem aber können sie auf der Erfahrung einzelner Individuen beruhen, daß unter bestimmten Umständen ein bestimmtes Verhalten regelmäßig zum Erfolg führt. Wird dieses Verhalten nun von vielen anderen Individuen nachgeahmt - ganz einfach, weil sie auch Erfolg haben wollen - dann entsteht eine empirisch zu beobachtende Regelmäßigkeit des menschlichen Handelns. Mit anderen Worten, es entsteht dann eine "spontane Regel" durch menschliches Handeln und gleichzeitg für menschliches Handeln, die niemals normativ festgelegt wurde, aber dennoch menschliches Handeln empirisch beobachtbar beeinflußt. "Regel" wird in diesen Thesen also immer als "empirisch Seiendes" verstanden, der normative Regel-Begriff des "dogmatisch Seinsollenden" wird hier nicht thematisiert.2

Eine solche Betrachtungsweise ist deshalb möglich, weil hier die Regeln oder Institutionen nicht nach ihrem Ursprung, sondern nach ihrer Wirkung3 klassifiziert werden sollen. Es werden einerseits zielbestimmende Regeln betrachtet, die nicht nur handlungsanleitend für die handelnden Individuen sind, sondern auch Ziel und Zweck dieser Handlungen direkt oder indirekt bestimmen. Und es werden demgegenüber handlungsleitende Regeln betrachtet, die lediglich die Handlungen der Individuen leiten, ohne dabei Ziele oder Zwecke dieser Handlungen zu bestimmen. Diese Unterscheidung in zielbestimmende und handlungsleitende Regeln führt zur Fragestellung, ob die Ordnung innerhalb des Cyberspace eine "gemachte Ordnung" (Taxis) oder eine "spontane Ordnung" (Kosmos) ist.4

Eine gemachte Ordnung oder Organisation läßt sich am besten als eine Anordnung von Elementen beschreiben, die zu einem bewußt und im voraus festgelegten Zweck erfolgt. Eine gemachte Ordnung stellt also eine organisatorische Struktur dar, die geschaffen wird, "um bestimmte Ziele mit bestimmten Mitteln zu verwirklichen"5. Die Handlungen der Elemente werden unter Zugrundelegung von Sub-Zielen oder Sub-Zwecken festgeschrieben.

Ein technisches Artefakt "Computer-Netzwerk" kann durchaus als Taxis, als gemachte Ordnung mit einem eindeutig definierten und identifizierbaren Zweck konzipiert werden. Beispielsweise gilt dies für unternehmensinterne Netzwerke, deren Anwendungen ausschließlich organisatorischen Zielen und Zwecken des betreibenden Unternehmens untergeordnet sind. Die Elemente (Individuen und Software) dieser sozio-technischen Ordnung "Computer-Netzwerk" sind dann in Anzahl, Anordnung und Handlungen ebenfalls in diese Zwecke eingebunden. Diese Einbindung kann bei Software durch formal-algorithmische Beschreibung ihrer Funktionen und formal-algorithmische Koordination ihrer Operationen im Rahmen übergeordneter Software erfolgen. Wo dies aufgrund der Aufgabenkomplexität nicht möglich ist, kann die Koordination der Operationen der Software im Operationsraum "Computer-Netzwerk" aber eben auch durch zielbestimmende Regeln des Netzwerks erfolgen. Darunter sind solche Standards, Normen und Regeln für Individuen und Software zu verstehen, die die Koordination der Handlungen von Individuen und der Operationen von Software im Netzwerk zwar nicht einem formal-algorithmischen Modell unterwerfen, aber diese Koordination strikt unter dem Gesichtspunkt des Gesamt-Zwecks des Netzwerks regulieren. Es besteht also eine klare Hierarchie zwischen dem exogen bestimmten Zweck des Netzwerks und den, diesem Zweck unterordneten, endogenen zielbestimmenden Regeln des Netzwerks.

Im Gegensatz zur Organisation, der bewußt und exogen geschaffenen Ordnung, steht die spontane Ordnung. Hierbei handelt es sich um eine gewachsene, durch i.d.R. evolutionäre Prozesse endogen selbst-erzeugte Ordnung. Da eine solche Ordnung nicht bewußt geschaffen wurde, "kann legitimerweise nicht behauptet werden, daß sie einen besonderen Zweck habe, wenn es auch äußerst wichtig für unsere erfolgreiche Verfolgung einer großen Vielfalt verschiedener Zwecke sein kann, daß wir uns ihrer Existenz bewußt sind"6. Lediglich im Sinne von Funktionalität kann von einem "Zweck" der spontanen Ordnung gesprochen werden, dem Zweck der Ordnung, sich unter wechselnden Umständen und Bedingungen selbst zu erhalten oder sich wiederherzustellen.

Spontane Ordnungen entstehen, wenn das Handeln der Individuen Regeln folgt, die zwar die Art und Weise des Handelns definieren, nicht aber Ziele oder Zwecke der Handlungen festlegen. Mann kann dann von handlungsleitenden Regeln sprechen, "weil es darum geht, das Handeln von Individuen zu koordinieren, die verschiedene und häufig entgegengesetzte Zwecke verfolgen."7 Diese handlungsleitenden Regeln, auf denen eine spontane Ordnung beruht, können spontan gewachsene Regeln (Sitte, Moral), bewußt gemachte legislative, administrative oder vertragliche Regeln (Recht) und auch bewußt gemachte technischen Regeln (Standards) sein. "Der spontane Charakter der sich ergebenden Ordnung muß daher von dem spontanen Ursprung der Regeln unterschieden werden, auf denen sie beruht, und es ist möglich, daß eine Ordnung, die immer noch als spontan beschrieben werden müßte, auf Regeln beruht, die zur Gänze das Ergebnis eines bewußten Entwurfes sind. ...Daß sogar eine Ordnung, die auf gemachten Regeln beruht, spontanen Charakters sein kann, zeigt sich in der Tatsache, daß ihre besondere Erscheinung stets von vielen Umständen abhängt, die der Entwerfer jener Regeln nicht kannte und nicht kennen konnte. Der besondere Inhalt der Ordnung hängt von den konkreten Umständen ab, die nur den Individuen bekannt sind, die die Regeln befolgen und sie auf die ihnen allein bekannten Tatsachen anwenden. Dadurch daß den Individuen sowohl die Regeln als auch die besonderen Tatsachen bekannt sind, bestimmen beide zusammen die sich ergebende Ordnung."8

Eine so entstehende Ordnung ist eine spontane Ordnung, weil ihre konkrete Erscheinungsform nicht in einem exakt spezifizierten mathematischen, formalen oder algorithmischen Modell festgelegt ist (wie bei einem technischen "System") und auch nicht auf eindeutig spezifizierten hierarchischen Anweisungen beruht (wie in einer zentralen oder dezentralen Organisation). Eine solche Ordnung ist zugleich eine polyzentrale (nicht dezentrale!) Ordnung, weil ihre konkrete Erscheinungsform durch das Handeln von Individuen entsteht, deren Handlungen zwar einerseits regelgeleitet sind und auf regelhaften Erwartungen (nicht notwendig auf exakt spezifiziertem Wissen) beruhen, aber andererseits in ihren Zielen und Zwecken nicht den Spezifikationen formaler Modelle, den Anweisungen übergeordneter Instanzen oder den Planungsabläufen in Organisationen unterworfen sind. Die konkrete Erscheinungsform einer spontanen Ordnung ist für einen zukünftigen Zeitpunkt nicht vorhersagbar, eben weil es ein für eine solche Vorhersage notwendiges formales Modell oder einen detaillierten Organisationsplan nicht gibt. Dennoch kann auch eine spontane Ordnung Gegenstand wissenschaftlicher Untersuchungen sein, weil innerhalb dieser Ordnung Muster von konkreten Realisationen erkannt werden können, die als Muster vorhersagbar und falsifizierbar sind.

Es wird also die Behauptung aufgestellt, daß elektronische Artefakte, die in Quantität und Komplexität ähnliche Größenordnungen erreichen wie z.B. eine Volkswirtschaft oder auch der Individualverkehr, wie diese nur durch spontane Ordnungsbildung erfolgreich funktionsfähig gehalten werden können. Ein hochkomplexes (vernetztes) elektronisches Artefakt - oder eben die gedankliche Zusammenfassung aller dieser Artefakte, der Cyberspace - ist funktionsfähig und stabil, wenn sich innerhalb dieses Artefakts Institutionen im Sinne zweckfreier, handlungsleitender Regeln evolutionär herausbilden oder bewußt geschaffen werden, die die Koordination der, in einzelnen unvorhersehbaren, Handlungen von Individuen und Operationen von Software gewährleisten und zur Herausbildung einer stabilen, spontanen Ordnung führen. Unter der Bedingung der Existenz solcher handlungsleitender Regeln kann ein hochkomplexes elektronisches Artefakt auch dann als technisch und sozial beherrschbar gelten, wenn das Tatsachenwissen über das Artefakt und die agierende Software unvollständig ist und kein formales Modell des Artefakts existiert.

Inhalt


Der Cyberspace ist eine zivilisatorische Ordnung
 
A central problem of computer science is the integration of knowledge and coordination of action in complex systems. The same may be said of society. In society, however, this problem has been faced for millennia rather than decades, and diverse solutions have been tested for effectiveness through hundreds of generations of competition. Efforts to understand the resulting institutions and to describe their principles of operation have spawned the science of economics. ...At the broadest level of abstraction, the problems of social and computational coordination are fundamentally similar. ...This paper argues that market ecosystems are particularly appropriate as foundations for open systems ..., in which evolving software spread across a distributed computer system serves different owners pursuing different goals.
Mark S. Miller, Eric K. Drexler1
Der Cyberspace und die in ihm beobachtbaren Phänomene werden in diesen Thesen immer als das Resultat menschlichen Handelns betrachtet und als solches erklärt (handlungstheoretische Sichtweise). Zugrundegelegt werden dabei ausschließlich die Handlungen und Entscheidungen menschlicher Individuen (mikrotheoretische Sichtweise). Aus den Handlungen und Entscheidungen der Individuen bildet sich eine sozio-technische, d.h. zivilisatorische Ordnung des Cyberspace heraus (ordnungstheoretische Sichtweise), diese Ordnung ist also einerseits das Ergebnis menschlichen Handelns und andererseits handlungsleitend für die in dieser Ordnung agierenden Individuen und Software-Agenten. Die im Cyberspace zu beobachtenden Phänomene, die Muster der Operation von Software und die Muster der Evolution von technischen Standards und Spezifikationen sind also in letzter Konsequenz und jenseits aller technischen Notwendigkeiten und Bedingheiten immer nur als Muster sozialen Handelns der beteiligten Individuen erklärbar.

Die Entwicklung des Cyberspace als sozio-technische Ordnung, die Entwicklung und Wirkungsweise seiner inneren Strukturen sowie das Handeln der beteiligten Individuen kann durch sozial-ökonomische Modelle zutreffender beschrieben werden als durch naturwissenschaftlich orientierte Modelle. Es bestehen vor allem signifikante, strukturelle Ähnlichkeiten zwischen der Koordination des unabhängigen Handelns von Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace bzw. der Koordination der Operationen von Software-Agenten im Cyberspace und der Koordination des Handelns von unabhängigen Wirtschaftssubjekten bzw. ihrer menschlichen Agenten im institutionellen Rahmen einer Volkswirtschaft. Es sollte daher möglichst vermieden werden, auf "mehr oder weniger schiefe Analogien zu naturwissenschaftlichen Leitbildern"2 zurückzugreifen. Wenn also hier der Cyberspace als das Ergebnis einer Evolution - genauer: einer Regelevolution - betrachtet wird, so bedeutet dies keinesfalls, daß diese Evolution unter Rückgriff auf Szenarien der biologischen Evolution beschrieben werden muß oder auch nur beschrieben werden kann. "Evolution" wird hier verstanden als das abstrakte Muster eines komplexen Prozesses (oder Phänomens), in dem "ein Mechanismus der Vervielfachung von übertragbaren Varianten und einer wettbewerblichen Auslese jener Varianten, die eine größere Überlebenschance haben, im Laufe der Zeit eine große Vielfalt von Strukturen hervorbringt, die dazu angepaßt sind, sich fortlaufend an die Umwelt und aneinander anzupassen."3 Dieses komplexe Phänomen "Evolution" kann sich in sehr unterschiedlichen Realisationen konkretisieren, eine dieser konkreten Realisationen oder Verlaufsformen der Evolution ist die biologische Evolution der Arten in der Erdgeschichte. In diesen Thesen wird argumentiert, daß die Evolution des Cyberspace eine weitere Realisation dieses komplexen Phänomens ist, deren konkrete Verlaufsform zum Gegenstand empirischer Untersuchungen gemacht werden kann. Es kann aber sicher schon jetzt gesagt werden, daß sich diese Verlaufsform der Evolution erheblich von der Realisation "biologische Evolution" unterscheiden wird, sowohl hinsichtlich ihrer Geschwindigkeit als auch hinsichtlich der Mechanismen von Variation und (wettbewerblicher) Auslese.

Die zahlreichen Versuche, naturwissenschaftliche Modelle komplexer natürlicher Systeme auch zur Erklärung von beobachtbaren Phänomenen in komplexen sozialen, sozial-ökonomischen oder eben sozio-technischen Ordnungen heranzuziehen, können und sollen in diesen Thesen nicht ausführlich dargestellt oder gar kommentiert werden. Stattdessen wird hier vorgeschlagen, evolutionäre und selbstorganisatorische Prozesse innerhalb des Cyberspace und seiner Netzwerke, also innerhalb von sozio-technischen Ordnungen, durch Modellansätze zu beschreiben, die orginär zur Beschreibung zivilisatorischer Evolutionen und Ordnungen entwickelt wurden.

Inhalt


Die sozio-technische Ordnung Internet

Der Computer-Netzwerk-Verbund Internet kann als Prototyp1 des Cyberspace betrachtet werden. Die Erklärung der im Internet beobachteten und beobachtbaren Phänomene erlaubt daher wichtige Rückschlüsse auf eine Theorie des Cyberspace als sozio-technischer Ordnung für das Handeln von Menschen und für die Operationen von Software.

Das Internet ist ein Computer-Netzwerk, das angeschlossenen Computern den Austausch von Daten ermöglicht. Technisch gesehen ist das Internet sogar ein Computer-Netzwerk-Verbund, ein "Netzwerk von Netzwerken", deren Gemeinsamkeit darin besteht, daß die angeschlossenen Computer den Datenaustausch auf der Grundlage eines bestimmten technischen Standards, den sog. TCP/IP (Transmission Control Protocol/ Internet Protocol) abwickeln. Das Internet definiert sich also nicht durch eine bestimmte Technik (Hardware, Infrastruktur), sondern durch einen bestimmten Kommunikationsstandard (TCP/IP), der mittels sehr verschiedenartiger Hardware realisiert werden kann und wird.

Ausgehend davon soll auch im folgenden der Begriff "System Internet" oder "elektronisches System Internet" vermieden werden. "System" impliziert - bewußt oder unbewußt - eine Systematik der ablaufenden Prozesse und ein vollständiges, allumfassend formalisiertes Wissen über das System und die Prozesse, wie es im Falle des Internet eben gerade nicht gegeben ist. Vielmehr soll im weiteren der Begriff "technisches Artefakt Internet" verwendet werden, wenn auf die technischen Basisfunktionen des Internet abgestellt wird. Hinsichtlich der sozio-technischen Aspekte des Internet wird von der "Ordnung Internet" oder der "sozio-technischen Ordnung Internet" gesprochen werden - einer spezifischen Ordnung der menschlichen Gesellschaft, die den institutionellen Rahmen für das voneinander unabhängige Handeln von Menschen an den Schnittstellen des Internet und für die voneinander unabhängigen Operationen der Software im Internet bildet, ohne dieses Handeln und die Operationen der formalen Systematik eines "Systems" unterwerfen zu können.

Die Standards, Normen und Regeln im Internet werden im weiteren als Institutionen des Internet oder Institutionen im Internet bezeichnet. Mit Institutionen des Internet werden also sozio-technische Institutionen innerhalb des Internet bezeichnet, die der Koordination des menschlichen Handelns an den Mensch-Maschine-Schnittstellen des Internet und der Koordination der Operationen der Software im Internet dienen. Diesen Thesen wird vor allem der Institutionenbegriff der "Institutionen-Ökonomik" zugrundegelegt, nach dem Institutionen einfach beobachtbare (spontan entstehende oder festgelegte) Regelmäßigkeiten in wiederholten Interaktionen zwischen Individuen2 sind, wobei natürlich im Internet derartige Interaktionen zwischen Individuen ausschließlich durch den Einsatz von Software-Agenten realisiert werden können. Institutionen sind also Regeln, "denen mehrere Aktoren bei ihren wiederholten Entscheidungen (freiwillig oder zwangsweise) folgen"3. Diese Regeln können sowohl technische oder legislative Regeln als auch informelle Regeln (soziale Normen, Gebräuche) sein oder sie sind in Form organisatorischer oder algorithmischer Strukturen verfestigt.

Daß sich der Begriff der Institution auch auf technische Standards und Normen ausweiten läßt, ist bereits ausführlich dargelegt worden: "Technische Normen sind die institutionelle Struktur von Maschinerien."4 Technischen Normen sollen hier jedoch nicht per se als die Institutionen von Maschinerien, in vorliegendem Fall also vom Internet, betrachten werden. In diesen Thesen soll vielmehr argumentiert werden, daß sozio-technische Institutionen zwar meist ihren Ausgangspunkt in technischen Normen haben, sich aber erst aus diesen Normen heraus zu Institutionen entwickeln, nämlich genau dann - und nur dann - wenn diese Normen tatsächlich zu empirisch beobachtbaren Regelmäßigkeiten bei wiederholten Interaktionen von Individuen führen. Dies muß nicht zwangsläufig so sein, wovon zahlreiche im Prototyp-Stadium oder beim Versuch der Markteinführung dahingeschiedene technische Normen beredt Zeugnis ablegen.

Die TCP/IP definieren das Internet als technisches Artefakt und als sozio-technische Ordnung:5

  1. Das Internet als technisches Artefakt ist die Gesamtheit aller Computer und Netzwerke, die auf der Grundlage der TCP/IP miteinander verbunden sind. Diese Protokolle stellen also die konstitutionellen Institutionen des Internet dar. Die TCP/IP konstituieren das Internet über die reine Hardware-Ebene hinaus als einen einheitlichen Operationsraum für Software.
  2. Das Internet als sozio-technische Ordnung ist die Gesamtheit aller Individuen und Software, die durch das technische Artefakt Internet miteinander verbunden sind. Alle technischen, legislativen, administrativen und sonstigen Regelungen, die die Handlungen von Individuen an den Mensch-Maschine-Schnittstellen des Internet und die Operationen von Software im Internet koordinieren, sollen hier als post-konstitutionelle Institutionen des Internet betrachtet werden. Hierzu zählen beispielsweise alle in den "Request For Comments" (RFC) oder den "For Your Information" (FYI) niedergelegten Regelungen, die Zugangs-und Zugriffsregelungen zu den Ressourcen der an das Internet angeschlossenen Computer und Netzwerke, sowie auch informelle Verhaltensregeln (etwa die sog. "Nettiquette").
Das Internet kann also auf der Grundlage seiner konstitutionellen und post-konstitutionellen Institutionen sowohl technisch als auch sozio-technisch eindeutig definiert werden, es ist damit zulässig, das Internet als ein einheitliches hochkomplexes elektronisches Artefakt und als eine einheitliche hochkomplexe sozio-technische Ordnung zu betrachten und zwar ungeachtet aller sonstigen technischen, territorialen oder administrativen Strukturen. Damit ist aber die Frage, nach welchen Prinzipien diese einheitliche Ordnung als Gesamtheit gestaltet ist, zulässig und von Interesse.6

Inhalt


Die polyzentrale und spontane Ordnung des Internet auf konstitutioneller Ebene

Die zentralen technischen Elemente des technischen Artefakts Internet sind die sog. "Router"1. Die Router sind Computer, auf den eine bestimmte Software implementiert ist, die Router-Software. Diese Router-Software operiert als Agent des Handelns derjenigen Individuen oder Kollektiven von Individuen, die die Sicherstellung der Funktionsfähigkeit von Teilbereichen des Internet übernommen haben. Die Resultante aller Operationen von Router-Software im Internet ist die konstitutionelle Ordnung des Internet. An vier Punkten soll gezeigt werden, welche Eigenschaften diese Operationen und die von ihnen erzeugte Ordnung haben.

Erstens, das Verhalten der Elemente der konstitutionellen Ordnung Internet ist nicht vorhersehbar.

Es sei für die weiteren Betrachtungen angenommen, daß diese Router-Software auf einem determinierten, deterministischen und nicht-terminierenden2 Algorithmus beruht. Es sei weiterhin angenommen, daß für diesen Algorithmus ein formaler Korrektheitsbeweis vorlieg.3 Die TCP/IP sind nun die Regeln, nach denen die Weiterleitung eines Datenpakets im Internet durch die Router-Software an einen der nächstgelegenen Router zu erfolgen hat. Diese Regeln sind in den, hier als determiniert und deterministisch angenommenen, Algorithmen der Router-Software f:E->A implementiert. Trotz dieser Determiniertheit der Algorithmen der Router-Software sind aber die Operationen der Router-Software op(f,Z):Z(t)->Z(t+n), d.h. die Veränderung des Zustands von Hardware durch Weitersendung empfangener Datenpakete offensichtlich indeterminiert und für einen zukünftigen Zeitpunkt t+n nicht vorhersagbar. Denn die Operation "Senden eines Datenpakets" durch eine konkrete Router-Software zu einem konkreten Zeitpunkt ist davon abhängig, welche und wieviele benachbarte Router zu diesem Zeitpunkt die Software "vorfindet" und in welchem technischen Zustand sich diese Router zu diesem konkreten Zeitpunkt befinden. Der Phänotyp der Router-Software, also die Menge aller möglichen Routeroperationen op(f,Z):Z(t)->Z(t+1), ist demnach nicht nur von seinem determinierten Genotyp, dem Algorithnus f:E->A, abhängig, sondern auch vom Zustand der Hardware-Umwelt im Operationsraum der Routersoftware, d.h. von Zustand Z(t) der Hardware der benachbarten Router.

Zweitens, das Verhalten der Elemente der konstitutionellen Ordnung Internet beruht auf regelhaften Erwartungen und erzeugt eine spontane Ordnung im Internet.

Der Kommunikationsdesigner Norbert Bolz4 beschreibt das, Netzwerken wie dem Internet zugrundeliegende Wissen so:

Tatsächlich besteht bezüglich des Internet eine systematische Unwissenheit hinsichtlich der Gesamtheit aller relevanten Tatsachen. Das Verhalten der Elemente des Internet (Router) ist, wie gezeigt, unvorhersehbar und die Operationen der Elemente des Internet müssen sich an die Unvorhersehrbarkeit der Operationen anderer Elemente anpassen. Die Vermutung von Bolz jedoch, es gäbe keinerlei Gesamtüberblick, ist unzutreffend. Konstitutiv für das Internet sind ja nicht die physischen Netzwerke, aus denen das Internet besteht, sondern die TCP/IP. Diese konstitutionellen Institutionen des Internet legen - und zwar für die Gesamtheit (Überblick!) des Internet - die Regeln fest, nach denen Datenpakete im Internet weiterzutransportieren sind. Die (Entwürfe der) Algorithmen für die Router-Software und die Operationen dieser Software realisieren also ein Wissen über die lokale Weiterleitung der Datenpakete und zugleich die regelhafte Erwartung, daß eine solche Weiterleitung auch in den jeweils nicht-lokalen Bereichen des Internet erfolgen wird. Das Internet ist also nicht deswegen funktionsfähig, weil es ein Netzwerk oder ein Netzwerk von Netzwerken bildet. Das Internet ist funktionsfähig, weil es eine Ordnung bildet, in der die Elemente der Ordnung (die Router) auf Grundlage ihres lokalen und fallbezogenen "Wissens" operieren und gleichzeitig erfolgreich "Erwartungen" bezüglich der Teile des Internet bilden, über die sie kein "Wissen" haben5. Grundlage dieser Erwartungsbildung sind die konstitutionellen Institutionen des Internet, die TCP/IP. Im Algorithmus f:E->A eines konkreten Routers ist also nicht mehr die "volle empirische Wirklichkeit" des Internet abgebildet (wie in einem "Hauptprogramm"), sondern nur noch die Standards und Normen der TCP/IP für die Operationen op:Z(t)->Z(t+1) dieses Routers, d.h. die Standards und Normen für seinen Datenaustausch mit benachbarten Routern. Gleichzeitig ist im Algorithmus dieses Routers die Erwartung (nicht das Tatsachenwissen) seiner Entwerfer abgebildet, daß alle anderen Router im Internet diese Standards und Normen der TCP/IP ebenfalls einhalten werden. Da diese Entwerfer aber natürlich kein detailliertes Wissens über alle Algorithmen aller anderen Router im Internet haben, können sie diese regelhafte Erwartung im Algorithmus des eigenen Routers nur abbilden, weil sie das Muster "korrekte Weiterleitung von Datenpaketen durch sehr viele Router in allen Bereichen des Internet" regelmäßig empirisch im Internet wahrgenommen haben.

Durch die Operationen der Router-Software unter Geltung der Regeln der TCP/IP bildet sich somit eine spontane, also keine geplante Ordnung des Internet, weil "die Bildung spontaner Ordnungen das Ergebnis davon ist, daß ihre Elemente in ihren Reaktionen auf ihre unmittelbare Umgebung bestimmten Regeln folgen."6 Wäre das Internet eine geplante Ordnung bzw. ein "technisches System" im engeren Sinn dieses Wortes, müßte ein - wie auch immer gearteter - zentraler Mechanismus (Hauptprogramm, Betriebssystem o.ä.) bestehen, der die Routen der Datenpakete im voraus und damit vorhersehbar festlegt. Ein solcher Mechanismus existiert aber im Internet gerade nicht, das Internet ordnet sich spontan7. Denn die empirisch wahrgenommene Regelmäßigkeit der korrekten Weiterleitung der Datenpakete durch alle Router ist ja nur ein zu erwartendes Muster der Routeroperationen, dessen konkrete Realisationen sich spontan entsprechend der jeweiligen Situation bilden.

An die Stelle der vorherberechenbaren "Gewißheit" einer korrekten Datenpaket-Weiterleitung, wie sie ein zentraler Mechanismus realisieren würde, tritt in dieser spontanen Ordnung des Internet die "Erwartung", daß die bisher beobachtete Regelmäßigkeit der korrekten Weiterleitung von Datenpaketen in nicht-lokalen Internet-Bereichen auch weiterhin regelmäßig auftreten wird. Eine solche empirisch gestützte Erwartung ist sicher weniger als ein formal korrektes Wissen, aber sie ist eben auch mehr als ein völliges Nicht-Wissen. Die ständige oder auch nur sehr häufige Enttäuschung dieser Erwartung würde die Funktion des Internet als Gesamtheit beenden, denn in diesem Fall bliebe den Prinzipalen (Betreibern) der Router-Software gar keine andere Wahl, als den Betrieb der Router einzustellen. Andererseits bleibt die Funktionsfähigkeit des Internet bei einzelnen Enttäuschungen dieser Erwartung, also bei gelegentlichen Fehlleitungen von Datenpaketen, erhalten. Denn da in den TCP/IP nur regelhafte Erwartungen ("Ausnahmen bestätigen die Regel!") hinsichtlich der nicht-lokalen Router-Umgebung realisiert werden, sind in diesen Protokollen Ausnahmen von der Regel, also Enttäuschungen der regelhaften Erwartungen algorithmisch berücksichtigt. So gibt es in den TCP/IP z.B. Festlegungen über die Operationen der Router-Software im Falle verlorengegangener oder auch zirkulierender Datenpakete. Die eingangs gestellte Frage "Warum funktioniert das Internet?" findet ihre Antwort also in einer nur scheinbaren Tautologie: Das Internet funktioniert, weil die Empirie zeigt, daß das Internet funktioniert. Die "Anpassung an das Unvorhersehbare" (Unvorhersehbarkeit der einzelnen, konkreten Operation) erfolgt also durch "Anpassung an das Erwartete" (Erwartung eines allgemeinen, abstrakten Operations-Musters).

Drittens, die Elemente der konstitutionellen Ordnung Internet bilden eine polyzentrale Ordnung.

Das in einem derartigen Zusammenhang meist (auch in einer früheren Version dieser Thesen) verwendete Wort heißt "dezentral". Dezentral bedeutet aber lediglich "vom Mittelpunkt entfernt", d.h. dieses Wort bezeichnet lediglich die Entfernung eines bestimmten Phänomens von einem - gleichwohl existierenden - zentralen Punkt. Das Internet besitzt aber keinen einzelnen zentralen Punkt - weder funktionell noch geographisch -, sondern die Router bilden eine Vielzahl gleichrangiger Zentralen, die vollkommen unabhängig voneinander Entscheidungen über die Weiterleitung von Datenpaketen treffen. Das Internet ist also "polyzentral" und nicht "dezentral".

Viertens, die Elemente der konstitutionellen Ordnung Internet bilden eine offene Ordnung.

Die konstitutionellen Institutionen des Internet, die TCP/IP, sind Regeln, nach denen die Weiterleitung eines Datenpakets im Internet durch die Router zu erfolgen hat. Sie legen nicht fest, welchen konkreten Weg ein konkretes Datenpaket im Internet zu nehmen hat und sie legen nicht fest, an welchen Stellen im Netzwerk wie viele Router zu installieren sind. Dies würde ja gerade den ursprünglichen Intentionen der Entwicklung widersprechen. Damit wird das Internet aber zu einer offenen Ordnung, denn das Hinzufügen neuer Router erfordert lediglich die Abstimmung mit den benachbarten Routern (technischer Anschluß). Es ist aber nicht erforderlich, diese neuen Router in irgendeinen Gesamt-Mechanismus, Gesamt-Plan oder Gesamt-Algorithmus (Hauptprogramm, Betriebssystem) zu integrieren. Lediglich die Zuweisung der Internet-Adressen erfolgt notwendigerweise nach einem zentralistischen Plan und wird dezentral realisiert. In dieser Offenheit liegt die entscheidende Ursache für die Wachstumsfähigkeit des Internet.

Die Konstitution des Internet als ein polyzentral arbeitendes, hochkomplexes elektronisches Artefakt ist wahrscheinlich die bedeutenste praxisrelevante Realisierung eines für die Wissenschaftsdisziplin Informatik völlig neuen Paradigmas. Bisherige Informatik-Systeme waren immer, explizit oder implizit, entweder als monozentral gesteuerte Systeme (Großrechner) oder als dezentral organisierte Master/Slave-Systeme konzipiert. In solchen dezentralen Systemen wurden zwar Sub-Aufgaben an Sub-Systeme "ausgelagert", ein zentrales, hierarchisch den Sub-Systemen übergeordnetes Gesamtsteuer-System (Master) blieb aber, in welcher Form auch immer, erhalten. Es ging also immer darum, "innerhalb dieser Informatiksysteme die einzelnen Teile in einem Zusammenhang mechanischer Zwangsläufigkeiten miteinander zu verkoppeln; es sollte innerhalb der Systeme jeder Teil in vorhersehbarer Weise, also ohne Freiheit, auf von oben kommende Befehle reagieren"8. Und genau diese mechanischen Zwangsläufigkeiten sind in der für das Internet konstitutionellen, polyzentralen und spontanen "Router-Ordnung" unwiederbringlich aufgehoben und es wird zu zeigen sein, daß diese Festellung erst recht für die post-konstitutionelle Ebene des Internet gilt.

Inhalt


Die polyzentrale und spontane Ordnung des Internet auf post-konstitutioneller Ebene

Die post-konstitutionellen Institutionen des Internet entstehen, wenn der Austausch von Datenpaketen über das Internet mit einer gewissen Regelmäßigkeit im Rahmen bestimmter übergeordneter technischer und nicht-technischer Strukturen stattfindet. Diese Strukturen können als institutionelle Arrangements zur Koordination der Handlungen von Individuen an den Mensch-Maschine-Schnittstellen des Internet und zur Koordination der Operationen ihrer Software im Internet interpretiert werden. So existieren im Internet beispielsweise institutionelle Arrangements zum Austausch privater Nachrichten (e-mail) oder zur Veröffentlichung von Informationen (Usenet, Gopher, WWW). Es existieren Institutionen, die die Verfügungsrechte (Poperty Rights) über Informationsressourcen regeln, z.B. alle Regelungen im Zusammenhang mit dem Einsatz der Software "ftp". Es gibt schließlich Instititutionen, die direkt die Verfügungsrechte über Computerressourcen regeln, z.B. im Zusammenhang mit dem sog. "remote login" mittels der Software "telnet".

Als Beispiel für eine solche post-konstitutionelle Institution im Internet sei hier das Usenet erwähnt, ein System zur Verbreitung öffentlicher Informationen. Das Usenet ist weit mehr als ein technischer Standard - Ed Krol1:

Das Usenet ist also eine Institution, d.h. ein institutionelles Arrangement von technischen Standards, Normen und Verhaltensregeln im Internet. Diese Institution legt nicht nur bestimmte technische Standards fest, sondern bezeichnet auch Regeln für das Handeln der Individuen bei der Veröffentlichung von Nachrichten (also für das Handeln der Individuen an den Mensch-Maschine-Schnittstellen des Internet) und Regeln für die Operationen von technisch durchaus verschiedenartiger Software, die die Nachrichten ja letzlich im Internet verbreiten muß. Daß diese Institution ihren Ursprung außerhalb des Internet hat, widerspricht diesen Feststellungen nicht, denn Institutionen, die sich in einer bestimmten zivilisatorischen Ordnung evolutionär durchsetzen, können ihren Ursprung durchaus in einer ganz anderen zivilisatorischen Ordnung haben und gewissermaßen "adoptiert" werden.

Innerhalb der sozio-technischen Gesamtordnung des Internet entstehen also die verschiedensten (post-konstitutionellen) institutionellen Arrangements als Regeln für das Handeln von Menschen und für die Operationen von Software. Grundsätzlich kann vermutet werden, daß aufgrund solcher institutioneller Arrangements innerhalb der Gesamtordnung Internet sowohl geplante, d.h. exogen organisierte Teil-Ordnungen als auch spontane, d.h. sich endogen selbstorganisierende Teil-Ordnungen entstehen. Die Antwort auf die Frage, unter welchen Bedingungen welches institutionelle Arrangement zu welcher Art von (Teil-)Ordnung innerhalb der Gesamtordnung Internet führt, kann nur auf der Grundlage weiterer empirischer Untersuchungen gegeben werden. An dieser Stelle sollen daher lediglich - ohne Anspruch auf Vollständigkeit - einige Argumente für die These aufgeführt werden, daß die sozio-technische postkonstitutionelle Gesamtordnung des Internet ebenfalls eine polyzentrale und spontane Ordnung ist.

Erstens, das Internet ist ein konstruktiv nicht abgeschlossener Operationsraum für Software, in dem eine zentrale, algorithmische Ablaufsteuerung aller Prozesse unmöglich ist.

Das Internet in seiner Gesamtheit kann zum Operationsraum für Software werden, weil der Datenaustausch zwischen zwei Computern über das Internet immer auch eine Interaktion von Software ist. Zwar regeln die TCP/IP lediglich den Austausch von Datenpaketen zwischen zwei Computern, genauer, sie regeln den Austausch von Datenpaketen zwischen einer Software A (implementiert auf der Zentraleinheit ZEA des einen Computers) und einer anderen Software B (implementiert auf der Zentraleinheit ZEB des anderen Computers) über das Internet, aber diese Datenpakete müssen nicht notwendig klassische Daten wie Texte oder Zahlen beinhalten. Sie können ebensogut Befehle oder Anweisungsfolgen für die jeweils andere Software transportieren. Auf diese Weise ist es möglich, das z.B. die Software A indirekt über die Software B Anweisungen an die Zentraleinheit ZEB erteilt, d.h. die Software A kann den inneren Zustand von Hardware-Teilen, die der Zentraleinheit ZEB zugehörig sind, verändern. Damit hat aber die Software A ihre Operationen, d.h. ihren Operationsraum auf die Zentraleinheit ZEB ausgeweitet. Datenpakete können aber nicht nur Daten oder Befehlsfolgen transportieren, sondern auch Software selbst. Die Software A kann also, entsprechend programmiert, über das Internet eine Kopie von sich selbst (oder die Kopie einer beliebigen anderen Software) per Datenpaket-Übertragung an den Computer der Zentraleinheit ZEB übertragen. Am Zielort wieder "richtig zusammengesetzt", kann dann die Kopie des Software A direkte Anweisungen an die Zentraleinheit ZEB erteilen oder gar die vollständige Kontrolle über die Zentraleinheit und damit über den gesamten Computer erhalten. Eine der ersten praktischen Demonstrationen dieser Möglichkeit erfolgte auf sehr destruktive und höchst illegale Weise durch den sog. "Internet-Worm" am 2.November 1988. Es lassen sich aber auch durchaus legale Anwendungen dieses Prinzips denken - mehr noch: die sich gegenwärtig als Internet-Standard etablierende Programmiersprache Java beruht genau auf diesem Wirkungsprinzip.

Das Internet ist auch ein "konstruktiv nicht abgeschlossener" Operationsraum für Software. Zum einen ist das Internet ja gerade konzipiert worden, um den Ausfall bestehender Netzbereiche oder eben das Hinzukommen weiterer Knoten, also eine laufende konstruktive Veränderung des Netzes, bei unveränderter Funktionsfähigkeit zu überstehen. Zum anderen ist die Vorstellung absurd, man könne alles für das Internet relevante Tatsachenwissen erfassen, um damit ein formales Modell des Internet zu erstellen. Das würde ja die Erfassung aller relevanten Tatsachen über mehrere Millionen Computer und über alle auf ihnen implementierte Software (zumindest über diejenige Software, die auch im Internet operieren kann) bedeuten. Die Koordination der Operationen dieser Software im Internet kann also nicht mehr durch einen zentralen Mechanismus ("Hauptprogramm" oder "Betriebssystem" des Internet) erfolgen, da es nicht mehr möglich ist, die "volle empirische Wirklichkeit"2 des Internet in einem zentralen Programm zu erfassen und damit eine vollständig determinierte und algorithmisierte Ablaufsteuerung der Prozesse im Internet zu gewährleisten. Vielmehr erfolgt die Koordination der Operationen von Software im Internet durch "Systeme von Regeln", die in diesen Thesen als konstitutionelle und post-konstitutionelle Institutionen des Internet bezeichnet werden.

Zweitens, das Internet auf post-konstitutioneller Ebene ist eine polyzentrale Ordnung für Handlungen und Operationen von Internetsubjekten.

Die TCP/IP legen nur die Regeln fest, nach denen ein an das Internet angeschlossener Computer auszusendende oder empfangene Daten zu behandeln hat. Sie legen aber nicht fest, welche, wie viele und wo Computer an das Internet angeschlossen werden sollen oder dürfen. Vor allem aber legen die TCP/IP nicht fest, welche Software auf diesen Computern implementiert werden soll und zu welchem Zweck oder in welcher (übergeordneten) Form der Datenaustausch zwischen der Software verschiedener Computer stattfinden soll. Die konstitutionellen Institutionen des Internet, die TCP/IP sind also keine zielbestimmenden, sondern handlungsleitende Regeln; sie legen lediglich fest, wie, aber nicht warum Datenpakete im Internet weiterleitet werden sollen. Dieser "Mangel" in den konstitutionellen Institutionen des Internet hat nun zu einer Eigenschaft des Internet geführt, die Ed Krol3 so beschreibt:

Das bedeutet aber, daß ausschließlich die am Datenaustausch beteiligten Computer - d.h. die den Computer benutzenden Individuen und die von ihnen eingesetzte Software - die Art und Weise der Kommunikation über das Internet bestimmen, ohne daß DAS NETZ, irgendeine dritte Instanz im Netz oder ein zentraler, formaler Mechanismus darauf Einfluß hätten. Und das bedeutet wiederum, daß die spontane Ordnung auf der konstitutionellen Ebene des Internet ein voneinander unabhängiges Handeln und Planen der Nutzer der angeschlossenen Computer ermöglicht (und ermöglichen soll). Das Handeln der Individuen und die Operationen der eingesetzten Software werden also nicht monozentral gesteuert und sie sind auch nicht "dezentral" im Sinne von dezentralen Sub-Systemen eines zentralen Systems, sondern sie sind polyzentral. Dieses Handeln der Individuen und die Operationen ihrer Software kann - innerhalb des konstitutionellen Rahmens, also unter Beachtung der TCP/IP - zu beliebigen Interaktionen zwischen Individuen und Software führen. Aus diesem (beobachtbaren) Interaktionen können sich (beobachtbare) Regelmäßigkeiten innerhalb des Internet ergeben, die sich wiederum zu post-konstitutionellen Institutionen des Internet verfestigen können.4 Die Individuen und die eingesetzte Software stellen sich also als "Internetsubjekte" dar, die eine polyzentrale Ordnung auf der post-konstitutionellen Ebene im Internet herausbilden. Diese post-konstitutionelle Ebene des Internet ist das Resultat der Handlungen und Interaktionen der Internetsubjekte, die entstehenden post-konstitutionellen Institutionen sind das Resultat von Regelnmäßigkeiten im Handeln der Internetsubjekte.

Drittens, das Verhalten der Internetsubjekte ist indeterminiert und nicht vorhersagbar.

Es ist auch an dieser Stelle nicht notwendig, in eine Determinismus-Debatte einzutreten. Es braucht hier nicht entschieden zu werden, ob die Handlungen der Individuen an den Mensch-Maschine-Schnittstellen des Internet und die Operationen ihrer Software im Internet objektiv oder subjektiv indeterminiert sind. Selbst wenn die Handlungen und Operationen der Internetsubjekte objektiv determiniert sein sollten, können nach gegenwärtigen Wissensstand die Determinaten nur bruchstückhaft und nur für einzelne Internetsubjekte ermittelt werden. Diese Thesen gehen aber von der Grundannahme aus, daß die Evolution der Institutionen und die sich herausbildenden Ordnungen im Internet die Resultante aller Handlungen und Operationen von Internetsubjekten sind. Eine wissenschaftliche Theorie über Evolution und sozio-technischer Gesamtordnung des Internet muß systematisch auf diese Gesamtheit aller Handlungen und Operationen zurückgreifen. Eine solche Theorie kann sich nicht darauf beschränken, lediglich die Funktionsweise von Einzelsystemen oder auch Einzelorganisationen im Internet zu erklären. Sie muß das Internet als Ganzes im Blick haben und vor allem die Frage beantworten, wie die unzähligen Einzelsysteme und Einzelorganisationen im Internet miteinander koordiniert werden. Es ist aber gegenwärtig nicht möglich, die Gesamtheit aller Determinaten aller Handlungen und Operationen aller Internetsubjekte vollständig zu erfassen, so daß selbst eine mögliche objektive Determiniertheit dieser Handlungen und Operationen nur als subjektive Indeterminiertheit wahrgenommen werden kann - und sei es nur wegen der Unzulänglichkeit des gegenwärtig zur Verfügung stehenden wissenschaftlichen Instrumentariums. Der Versuch einer Erklärung der Evolution und Ordnung des Internet muß diese (objektive oder subjektive) Interdeterminiertheit des Handelns und Operierens von Internetsubjekten in Rechnung stellen oder auf den (Sankt-Nimmerleins-)Tag warten, an dem die vollständige Erfassung aller Determinanten möglich wird.

Andererseits bezieht sich die Behauptung der systematischen Unwissenheit natürlich nur auf den einzelnen Beobachter, das einzelne Individuum, das einzelne Kollektiv oder die einzelne Instanz des Internet (und sei sie noch so "zentral"). Die Gesamtheit der Internetsubjekte besitzt natürlich auch die Gesamtheit alles relevanten Tatsachenwissens über diesen Netzwerk-Verbund, aber dieses Wissen existiert eben nur als das polyzentral verteilte Wissen aller Internetsubjekte. Indem nun die spontane Ordnung des Internet den Individuen und ihrer Software ein voneinander, von dritten Instanzen und von den Restriktionen formaler Modelle unabhängiges Handeln ermöglicht, kann dieses polyzentral verteilte Wissen für die Gesamtheit nutzbar gemacht werden. Nur auf diese Weise können die Individuen ihr spezielles Tatsachenwissen über das Internet nutzen, um unbeeinflußt von vorgedachten - und damit immer auch beschränkenden - formalen Modellen neue Interaktionsformen durch polyzentales Handeln zu schaffen, die dann mittels wettbewerblichem Selektionsprozeß als post-konstitutionelle Institutionen in das Internet diffundieren (s.u.) und somit für die Gesamtheit der Internetnutzer entdeckt und nutzbar werden. Und im Gegesatz zu einer zweckgebundenen Taxis können in der spontanen Ordnung nicht nur neue Funktionalitäten (Interaktionsformen), sondern auch neue Ziele und Zwecke entdeckt werden, die mit Hilfe von Kommunikations-Funktionalitäten verfolgt werden können. Die spontane Ordnung des Internet und die wettbewerbliche Evolution von post-konstitutionellen Institutionen im Internet sind also Entdeckungsverfahren sowohl für neue Funktionalität als auch für neue Ziele und Zwecke, die mit dem Internet verfolgt werden können; Entdeckungsverfahren, in denen "Kundschafter auf der ständigen Suche nach unausgenützten Gelegenheiten sind, die, wenn sie entdeckt wurden, dann auch von anderen genützt werden können"5.

Viertens, das Verhalten der Internetsubjekte beruht auf exaktem Wissen über lokal oder technisch separierte Einzelsysteme im Internet und auf regelhaften Erwartungen über die Gesamtordnung des Internet.

Die Institutionen des Internet haben ihren Ursprung zwar meist in einem bestimmten technischen Standard, also in einem technisch und algorithmisch genau spezifizierten Einzelsystem des Internet, können in der Erklärung ihrer Wirkungsweise jedoch nicht auf diesen beschränkt werden. Daß ein technischer Standard allein noch nicht die Nutzbarkeit einer technischen Funktion im Internet sicherstellt, kann sehr gut an dem Electronic-Mail-System (kurz: e-mail) im Internet aufgezeigt werden. Das e-mail im Internet ist ein Standard, der die technischen Spezifikationen für den Austausch privater Nachrichten (elektronische Briefe) festlegt. Festgelegt werden vor allem das Format der elektronischen Nachrichten und ihre Adressierung. Technisch gesehen besitzt jeder Nutzer eines, an das Internet angeschlossenen Computers eine sog. e-mail-Adresse, die im gesamten Internet (und genau genommen sogar noch darüber hinaus) einmalig und damit eindeutig ist, was die Voraussetzung für den Austausch privater bzw. persönlicher Nachrichten schafft. Technisch realisiert wird dieser Nachrichten-Austausch dann natürlich auf Grundlage der TCP/IP durch den Austausch von Daten-Paketen, deren Inhalt in diesem Fall die adressierte Nachricht ist.

Damit aber diese e-mail-Funktionalität tatsächlich zu einem ernstzunehmenden Kommunikations-Mittel der inzwischen Millionen Internet-Nutzer werden konnte, mußten weitere institutionelle Voraussetzungen erfüllt sein. Zunächst einmal muß, damit e-mail zu einer routinemäßig genutzten Kommunikationsform werden kann, eine Art "Kritische Masse" der existierenden und potentiell zu erwartenden Kommunikationspartner erreicht werden. Erst wenn genügend Kommunikationspartner zur Verfügung stehen, wird e-mail auch genutzt, d.h. die Innovation e-mail wird in das Internet diffundieren und sich als post-konstitutionelle Institution der persönlichen Kommunikation etablieren6.

Weiterhin muß der (potentielle) e-mail-Absender regelhafte Erwartungen über die Behandlung seiner abgesandten Nachrichten in den Teilen des Internet aufgebaut haben, über die er kein oder nur sehr wenig Tatsachenwissen besitzt. Und zwar regelhafte Erwartungen, die über die Einhaltung des technischen Standards hinausgehen. Zunächst die einfache, aber keineswegs selbstverständliche Erwartung, daß der, vielleicht unbekannte, Eigentümer des Ziel-Computers die für Empfang und Verarbeitung der Nachricht notwendigen Computer-Ressourcen auch regelmäßig bereitstellt (technisch gesehen kann man einen Computer an das Internet anschließen, ohne die e-mail-Funktion zu aktivieren). Weiterhin die Erwartung, daß vor allem bei großen Ziel-Computern die Nachricht auch regelmäßig korrekt an den individuellen Empfänger weitergeleitet wird (technisch gesehen kann man die e-mail-Funktion eines Computers aktivieren, ohne gleichzeitig alle individuellen e-mail-Adressen zu aktivieren). Schließlich die Erwartung, daß die versandten Nachrichten mit einer angemessenen Vertraulichkeit behandelt werden. Gerade über den letzten Punkt hat es namentlich in den USA heftige Auseinandersetzungen bis hin zu Gerichtsverfahren gegeben.

Andererseits wird auch der Eigentümer, der Ressourcen seines Computers für den Empfang und die Verarbeitung von e-mails zur Verfügung stellt, dies erst tun, wenn er seinerseits gewisse regelhafte Erwartungen über die aus dem Internet zu empfangenden Nachrichten gebildet hat. Zum Beispiel die Erwartung, daß Häufigkeit und Umfang der zu empfangenden Nachrichten sich regelmäßig so gestalten, daß der entsprechende Ressourcen-Verbrauch für den eigenen Computer zu verkraften ist (technisch gesehen kann ein e-mail-"Bombardement" mit megabyte-großen "Nachrichten" einen empfangenden Computer bis zur völligen Lahmlegung beeinträchtigten). Oder die Erwartung, daß das e-mail-System seines Computers regelmäßig nur von solcher Software aus dem Internet "angesteuert" wird, die tatsächlich Nachrichten zu versenden hat und nicht etwa Viren-Programme einschleusen will.

Erst wenn diese und weitere Erwartungen der Nutzer der e-mail-Funktionalität regelmäßig erfüllt werden, wenn sich also beim Nutzer durch die empirische Wahrnehmung von Operations- und Handlungs-Mustern im Internet Erfahrungsregeln über diese e-mail-Funktionalität aufgebaut haben, erst dann ist der technische Standard e-mail zur sozio-technischen Institution e-mail evolviert, die die millionenfachen Handlungen von Individuen und millionenfachen Operationen von Software regelhaft koordiniert und damit eine (Teil-) Ordnung im Internet erzeugt. Die detaillierte Spezifizierung der technischen Grundlagen von e-mail allein ist zwar notwendig, aber nicht hinreichend für einen solchen Institutionalisierungsprozeß. Hinreichend wäre eine solche technisch-algorithmische Spezifizierung nur in einem konstruktiv abgeschlossenen Operationsraum für Software (z.B. in einem unternehmensinternen LAN), in dem aufgrund des vollständigen Tatsachenwissens Unvorhergesehenes als technische Fehlfunktion erkannt und technisch behoben werden kann. Soll die technische Funktion e-mail in einen konstruktiv nicht abgeschlossenen Operationsraum für Software ausgedehnt werden, dann müssen neben die technische Kenntnis des Einzelsystems e-mail auch regelhafte Erwartungen über die Ordnung in diesem Operationsraum treten - anders gesagt, es muß ein empirisch gestütztes Vertrauen in die Institution e-mail aufgebaut werden7. Solches Vertrauen und solche regelhaften Erwartungen können tatsächlich nur durch empirische und im Laufe der Zeit aufgebaute Erfahrung entstehen. Es macht wenig Sinn, die Erfüllung dieser Erwartungen an post-konstitutionelle Institutionen als technischen oder legislativen Standard festschreiben zu wollen, denn es gibt im Internet keine Instanz, die Erfüllung solcher Erwartungen auch wirksam durchsetzen könnte. Hier ergibt sich ein wichtiger Unterschied zu den konstitutionellen Institutionen des Internet, den TCP/IP. Wer seinen Computer hardwaremäßig an das Internet anschließt und dann nicht nach den Regelungen dieser Protokolle handelt, wird wenig Freude an seinem Anschluß haben. Er darf nicht darauf hoffen, auch nur irgendein beliebiges Ziel mit Hilfe des Internet zu erreichen, genaugenommen ist er ja noch nicht einmal Internet-Teilnehmer. Die konstitutionellen Institutionen des Internet setzen also die Einhaltung ihrer Regeln gewissermaßen "von selbst" durch. Andererseits ist es jedoch durchaus denkbar, daß ein Internet-Nutzer das Internet erfolgreich zu Verfolgung seiner individuellen Ziele nutzt, ohne gleichzeitig die Erwartungen hinsichtlich der post-konstitutionellen Institutionen des Internet zu erfüllen, also beispielsweise ohne die e-mail-Funktion seines Computers zu aktivieren. Eine solche Abweichung kann ja im Einzelfall sogar sinnvoll sein und gefährdet auch nicht notwendigerweise die Gesamtfunktion dieser Institution. Mit anderen Worten, ist eine bestimmte Regelung erst einmal erfolgreich als post-konstitutionelle Institution in das Internet diffundiert und hat damit eine (Teil-)Ordnung des Internet etabliert, dann können auch Einzelabweichungen in größerer Zahl die Funktion dieser Institution nicht mehr so ohne weiteres gefährden.

Fünftens, im Internet findet eine Regelevolution der post-konstitutionellen Institutionen statt.

Die Tatsache, daß post-konstitutionelle Institutionen im Internet durch das voneinander unabhängige Handeln der Internetsubjekte entstehen, führt zu einer weiteren Konsequenz. Es ist nämlich sehr wahrscheinlich, daß funktionell identische oder ähnliche Interaktionsformen gleichzeitig und parallel, aber unabhängig voneinander im Internet entstehen. Erweisen sich diese Interaktionsformen für die beteiligten Individuen als nützlich, werden zunächst gewisse technische Strukturen und Einzelsysteme (technische Normen, spezielle Software) entstehen. Werden diese technischen Strukturen dann einem größeren als dem ursprünglichen Nutzerkreis zugänglich gemacht, entstehen post-konstitutionelle Institutionen mit identischer oder ähnlicher Funktionalität. Diese unterschiedlichen Varianten einer bestimmten Funktionalität treten dann aber - nolens volens - in einen wettbewerblichen Ausleseprozeß und schließlich in eine Phase der Stabilisierung einer dieser Varianten ein. Es findet also eine zivilisatorische Evolution der post-konstitutionellen Institutionen im Internet statt.

Inhalt


Schlußfolgerungen

Schlußfolgernd ließe sich also sagen: Die Spezifikationen des Internet - die TCP/IP -  sind als konstitutionelle Institutionen des Internet vor allem auf die Koordination der Handlungen unabhängig planender und agierender Individuen an den Mensch-Maschine-Schnittstellen des Internet und die Koordination der Operation ihrer Software im Internet ausgerichtet. Das unabhängige Planen und Handeln der Teilnehmer am Internet wiederum hat zu post-konstitutionellen Institutionen des Internet geführt, die in Quantität und Qualität in den ursprünglichen Planungen weder vorhergesehen wurden, noch überhaupt vorhersehbar waren. Das Internet ist das Ergebnis einer zivilisatorischen Evolution und kann in seiner Gesamtheit nur als polyzentrale, spontane Ordnung beschrieben werden, in der das Handeln der Individuen und die Operationen von Software durch die handlungsleitenden Regeln der konstitutionellen und post-konstitutionellen Institutionen des Internet miteinander koordiniert werden.

Das Internet ist andererseits ein hochkomplexes elektronisches Artefakt, das eindeutig als einheitliches elektronisches Artefakt und als einheitliche sozio-technische Ordnung definiert werden kann. Das Internet als einheitliches elektronisches Artefakt beruht nicht auf einem formalen oder algorithmischen Modell und wird nicht durch ein zentrales Programm gesteuert. Mit der offensichtlichen Funktionsfähigkeit des Internet ist der Beweis geführt worden, daß hochkomplexe elektronische Artefakte auch dann funktionsfähig und technisch und sozial beherrschbar sein können, wenn sie nicht auf formalen oder algorithmischen Modellen beruhen und keinem zentralen oder dezentralen Steuerungsmechanismus unterliegen.

Inhalt


Zur Lage der Informatik: Intelligenz - Formalismen - Technik1 - Regeln - Ordnung2
 
In der jüngsten Auflage eines Buches, in dem schon fast traditionell versucht wird, eine dem neusten Stand der Diskussion entsprechende Beschreibung der Informatik als Wissenschaftsdiziplin zu finden, heißt es nun:

...man kann sicher feststellen, daß der Ausgangspunkt der Denkansätze in der Informatik fast immer das Bemühen ist, Aspekte intelligenten Verhaltens von Lebewesen formal zu modellieren, um entsprechende formale Modelle als Unterstützungssysteme für den Menschen praktisch zu realisieren...
Informatik läßt sich also kennzeichnen durch die drei Begriffe
Intelligenz - Formalismen - Technik
oder als Intelligenzformalisierungstechnik.

Etwas allgemeiner könnte man sagen: Informatik ist die (Ingenieur-)Wissenschaft von der theoretischen Analyse und Konzeption, der organisatorischen und technischen Gestaltung sowie der konkreten Realisierung von (komplexen) Systemen aus miteinander und mit ihrer Umwelt kommunizierenden (in gewissem Maß intelligenten und autonomen) Agenten oder Akteuren, die als Unterstützungssysteme für den Menschen in unsere Zivilisation eingebettet werden müssen - mit Agenten/Akteuren sind Software-Module, Maschinen (zum Beispiel Staubsauger) oder roboterartige Geräte gemeint.

Wilfried Brauer, Siegfried Münch3
Noch in der vorherigen Auflage dieses Studien- und Forschungsführers wurde auf die Bedeutung von empirischen Regeln in der angewandten Datenverarbeitung hingewiesen, ein Hinweis, der nun leider entfallen, aber keineswegs unaktuell geworden ist:
...die Entwicklung immer schnellerer, größerer und vielseitigerer Datenverarbeitungsanlagen in den sechziger Jahren (hat) zu einem deutlichen Rückstand in der Kenntnis und Beherrschung dieser Anlagen durch den Menschen geführt .. - ein Rückstand, der auch heute noch vornehmlich darin besteht, daß wir nicht über Verfahren zur systematischen Erstellung von zuverlässigen Programmsystemen verfügen, und daß in der Praxis der Datenverarbeitung die Anwendung empirischer Regeln die Verwendung wissenschaftlich fundierter Methoden weit übertrifft.
Wilfried Brauer u.a.4
Die Existenz und Bedeutung von Regeln, also empirischer beobachtbarer Regelmäßigkeiten auch im Bereich der angewandten Datenverarbeitung wird (wurde?) von der Informatik zwar durchaus zur Kenntnis genommen, aber - gemäß ihrem tradierten Selbstverständnis als einer auf formale Verfahren und Modelle abstellenden Wissenschaftsdisziplin - als ein durch weitere Formalisierung zu überwindender Zustand betrachtet. Ist es aber wirklich ein deutlicher Rückstand in der "Kenntnis und Beherrschung" von Datenverarbeitungsanlagen durch den Menschen, wenn "in der Praxis der Datenverarbeitung die Anwendung empirischer Regeln die Verwendung wissenschaftlich fundierter Methoden weit übertrifft"? Zunächst wäre ja zu fragen, ob die Kontrastellung "Anwendung empirischer Regeln versus Verwendung wissenschaftlich fundierter Methoden" wirklich angemessen ist. Empirie bildet das faktische (Daten-)Fundament jeder Wissenschaft. Empirisches Handeln ist also nicht nur rational und vernünftig im Sinne des "gesunden Menschenverstandes", die Anwendung einer empirisch gesicherten Regel ist die Verwendung einer wissenschaftlich fundierten Methode. Vor allem aber stellt sich die Frage, ob dieser Vorrang empirisch gestützten Handelns tatsächlich einen (aufholbaren) Rückstand kennzeichnet oder ob hier nicht einfach die Normalität des Handelns von Individuen in einer hochkomplexen (sozio-technischen) Ordnung beschrieben wird. Der tatsächliche Rückstand der Theoretischen Informatik könnte im Gegenteil darin bestehen, immer noch zu versuchen, für die zivilisatorische Ordnung "Datenverarbeitung" eine formale Systematik zu schaffen, die in dieser Form in keiner anderen zivilisatorischen Ordnung von hoher Komplexität besteht und auf Grund eben dieser Komplexität auch gar nicht bestehen kann.

Eine formale Systematik aller ablaufenden Prozesse kann es nur für ein "System" im strengen Sinne dieses Wortes geben, also für ein technisches Artefakt, dessen Verhalten in jedem denkbaren Fall vollständig, formal exakt und detailliert vorhersagbar ist. Ein solches System erfordert die Vollständigkeit des Wissens über die Systemelemente, über deren Verhalten und vor allem über die Wechselwirkungen dieser Elemente mit der Umwelt. Nur unter der Bedingung solcher Vollständigkeit ist die Begriffskette "Intelligenz-Formalismen-Technik" ausreichend zur Beschreibung des Systems. Eine solche Vollständigkeit ist aber in komplexen zivilisatorischen Ordnungen - wenn überhaupt - nur selten und nur punktuell gegeben. Ist eine solche Vollständigkeit des Wissens nicht gegeben oder für die handelnden Individuen nur mit prohibitiv hohen Aufwand zu erreichen, tritt in zivilisatorischen Ordnungen ein empirisch regelgeleitetes Handeln an die Stelle des exakt wissensgeleiteten Handelns. Ein solcher Fall kann eintreten, wenn "komplexe Systeme" durch "das Zusammenwirken vieler, im einzelnen wohlverstandener und präzise spezifizierter Module (im Sinne aktionsfähiger Instanzen)"5 entstehen. Ein solcher Fall kann aber auch schon in der banalsten Alltagssituation entstehen - um ein oben zitiertes Beispiel aufzugreifen: beim Einsatz eines Staubsaugers als Agent zur Sauberhaltung der eigenen Wohnung. Wer solches unternimmt, wird sein Handeln wohl kaum an der zweifellos exakt spezifizierbaren Kette "Intelligenz-Formalismen-Technik" für das technische System Staubsauger ausrichten. Er wird sein Handeln vielmehr an einem Satz von Verhaltensregeln ausrichten, den Regeln der Gebrauchsanleitung des Staubsaugers also, an gesetzlichen Regeln und nicht zuletzt an Erfahrungsregeln darüber, wie man einen solchen Agenten am besten einsetzt, um sein Eigeninteresse (staubarme Wohnung) am besten (minimierter Arbeitsaufwand) zu verwirklichen. Und nicht alle diese Regeln sind notwendig aus der technischen Spezifikation des Staubsaugers herleitbar; ein Bußgeldbescheid wegen nächtens ruhestörenden Lärm läßt sich formal-technisch gewiß nicht vorherberechnen, wird aber wohl doch eine individuelle Verhaltensregel "Du sollst nach 22.00 Uhr nicht staubsaugen" entstehen lassen.

Eine solche Dominanz von empirischen Regeln und institutionalisierten, aber eben nicht formalisierten Verhaltensweisen im Handeln der Menschen ist ein wesentliches Kennzeichen der Lebens- und Anpassungsfähigkeit zivilisatorischer Ordnungen, denn diese Verhaltensweisen ermöglichen erfolgreiches Handeln der Menschen und damit den Erhalt der Funktionsfähigkeit der zivilisatorischen Ordnung auch unter der Bedingung unvollständigen Wissens oder bei Fehlen einer adäquaten formalen Systembeschreibung. Denn solche empirischen Regeln und institutionalisierten Verhaltensweisen sind ja nichts weiter als gewissermaßen komprimiertes, implizites Wissen darüber, welche Handlungen unter welchen Umständen sehr wahrscheinlich erfolgreich sein werden; sie erlauben also die Bildung regelhafter Erwartungen auch und gerade unter der Bedingung unvollständiger Information. Es sind eigentlich keine Gründe ersichtlich, warum dies in der zivilisatorischen Ordnung "Datenverarbeitung" anders sein sollte. Will man also im Rahmen der Wissenschaftsdiziplin Theoretische Informatik auch verstehen, wie technische Agenten oder Akteure "als Unterstützungssysteme für den Menschen in unsere Zivilisation eingebettet werden", dann muß man die Regeln verstehen, nach denen diese "Einbettung" erfolgt. Und heißt nichts anderes, als die empirisch wahrnehmbaren Regelmäßigkeiten zu beobachten und zu verstehen, nach den Menschen an den Mensch-Maschine-Schnittstellen dieser Systeme handeln. Eine um diesen Gedanken erweiterte Theoretische Informatik würde die Dominanz von empirischen Regeln in der Datenverarbeitung nicht als Theorie-Defizit begreifen, sondern diese Regeln und ihre Befolgung durch Individuen und Software zum Gegenstand der Theorie machen, einer Theorie der Entstehung, Evolution und Wirkungsweise von Regeln (Institutionen) in hochkomplexen elektronischen und sozio-technischen Ordnungen. Eine solche Informatik ließe sich dann kennzeichnen durch die Begriffe "Intelligenz-Formalismen-Technik-Regeln"; sie wäre also eine Informatik, die die formalen Modelle ihrer Systeme genauso thematisiert wie die Regeln der Interaktion dieser Systeme und die Regeln ihrer Handhabung durch den Menschen.

Hinzu kommt ein zweiter Problemkreis: Vor dem Entstehen globaler, (vollständig oder eingeschränkt) öffentlicher Computernetzwerke waren elektronische Systeme immer - mehr oder weniger - isoliert betriebene Einzelsysteme, die für einen - mehr oder weniger - exakt definierten Zweck errichtet wurden. Entweder waren es Einzelcomputer, die als konstruktiv abgeschlossene Operationsräume für Software zumindest prinzipiell einer vollständig formalisierten und algorithmisierten Ablaufsteuerung unterworfen werden konnten. Oder es waren unternehmensinterne6 - oder besser gesagt, organisationsinterne - Computernetze, die ebenfalls - mehr oder weniger - konstruktiv abgeschlossene Operationsräume für Software darstellten. Selbst wenn in diesen Netzwerken keine vollständig formalisierte und algorithmisierte Ablaufsteuerung (Netzwerk-Betriebssystem) mehr möglich war, so waren es eben doch immer organisationsinterne technische Artefakte; sie waren als Organisation, als "geplante Ordnung", als "Taxis" immer extern festgelegten, zielbestimmenden Regeln unterworfen, die ihrerseits wieder den Zielen und Zwecken der jeweiligen Organisation strikt hierarchisch untergeordnet waren. Es waren vor allem Operationsräume für Software, in denen unvorhergesehen Verhaltensweisen von Systemteilen eindeutig als technische oder planerische Fehlfunktionen zu erkennen und entsprechend zu "bekämpfen" waren, eben weil die Ziele, Zwecke und generellen Funktionsweisen dieser geplanten Ordnungen extern eindeutig definiert waren.

Mit der Vernetzung dieser Einzelsysteme durch technische Artefakte wie dem Internet7, die in ihrer Gesamtheit keinem einzelnen Betreiber - keiner einzelnen Privatperson, keinem einzelnen Unternehmen, keiner einzelnen Organisation und auch keinem einzelnen Staat - mehr zugerechnet werden können, ensteht eine völlig neue Situation auch für die Informatik. Es entstehen jetzt elektronische "Systeme", die schon allein deshalb nicht mehr einer formalen, algorithmischen oder doch zumindest planerischen Ablaufsteuerung unterworfen werden können, weil es niemanden mehr gibt, der für eine solche Ablaufsteuerung in der Gesamtheit zuständig wäre oder auch nur diese Zuständigkeit beanspruchen, geschweige denn durchsetzen könnte. Unter diesen Bedingungen entstehen aber konstruktiv nicht abgeschlossene Operationsräume für Software, deren interne Regeln nicht mehr aus externen Organisationsschemata abgeleitet werden können. Unter diesen Bedingungen kann sich dann aber weder die Theoretische Informatik noch die Angewandte Informatik darauf beschränken, die Frage nach der optimalen Umsetzung externer Organisationsstrukturen in Informatik-Systeme zu stellen. Die Theoretische Informatik insbesondere wird elektronische Artefakte zu thematisieren haben, die gerade keine Organisationen mehr sind und deren Wirkungsprinzipien eben nicht mehr aus den Strukturen einer Organisation, einer geplanten Ordnung oder einer "Taxis" abgeleitet werden können. Die Theoretische Informatik wird die Frage zu beantworten haben, wie ein technisches Artefakt zu strukturieren sei, in dem eine Vielzahl von Individuen versucht, eine Vielzahl von verschiedenen und oft entgegengesetzten Zielen und Zwecken zu erreichen, indem sie eine Vielzahl verschiedenartiger und bestenfalls technisch standardisierter Software in einem gemeinsamen Operationsraum als Agenten einsetzen. Eine Vielzahl von Individuen wohlgemerkt, die zwar untereinander die verschiedensten Kollektive8 bilden können, die in ihrer Gesamtheit aber gerade keinem externen Gesamtkollektiv angehören und deren Handeln eben gerade nicht dem Schema einer externen Gesamtorganisation untergeordnet ist; ebensowenig wie die Operationen der Software-Agenten im Operationsraum noch durch ein Betriebssystem oder ein Hauptprogramm koordiniert werden.

Bezeichnet man nun die gedankliche Zusammenfassung aller derartiger Operationsräume für Software als Cyberspace, dann wird sich eine Theorie des Cyberspace oder eine Theoretische Informatik des Cyberspace also folgenden Problemkreisen gegenüber sehen:

  1. Der Genotyp der im Cyberspace eingesetzten Software, also der Algorithmus f:E->A kann nicht mehr die volle empirische Wirklichkeit des potentiellen und konstruktiv nicht abgeschlossenen Operationsraums Cyberspace erfassen. Eine Theorie des Cyberspace muß also im Normalfall davon ausgehen, daß der Phänotyp Software, also die Menge der Operationen op(f,Z):Z(t)->Z(t+1) durch den Genotyp nicht mehr vollständig predeterminiert werden kann. Die Operationen von Software im Cyberspace werden also "nur" noch bestimmten Regeln, Standards und Normen folgen, aber im übrigen unvorhersehbar im Sinne einer exakten oder berechenbaren Einzelfallvorhersage sein.9
  2. Die Operationen der im Cyberspace operierenden Software unterliegen nicht mehr einer vollständigen Ablaufsteuerung durch ein "Hauptprogramm" oder ein “Betriebssystem", sondern sind ausschließlich abhängig von der Art und Weise des Einsatzes der Software durch unabhängig handelnde Individuen.
  3. Die Handlungen der menschlichen Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace sind nicht mehr notwendigerweise Bestandteil einer Organisation oder Kooperation und unterliegen auch nicht mehr deren zielbestimmenden Regeln. Vielmehr verfolgen die Individuen Ziele, die voneinander unabhängig sind und einander auch widersprechen können.

  4.  
Eine Theorie des Cyberspace wird die Frage zu beantworten haben, wie unter diesen Bedingungen "wenigstens" eine Ordnung entstehen kann (oder geschaffen werden kann), in der die handelnden Individuen "wenigstens" richtige Erwartungen über die Handlungen anderer Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace und die Operationen ihrer Software im Cyberspace bilden können, "oder doch zumindest Erwartungen, die sich sehr wahrscheinlich als richtig erweisen werden"10. Eine solche Theorie des Cyberspace muß dann immer eine duale Theorie sein: eine Theorie über die Koordination der Operationen von Software im Cyberspace und eine Theorie über die Koordination des Handelns menschlicher Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace. Eine Theorie des Cyberspace muß also sowohl eine Theoretische Informatik sein als auch sozialphilosophische Fragen zu thematisieren haben, die weit über die Problematik der Umsetzung externer Organisationsstrukturen in Informatikabläufe hinausgehen.

In diesen Thesen wird ein Modell entwickelt, nach dem die sozio-technische Gesamt-Ordnung des Cyberspace eine polyzentrale, spontane Ordnung ist, innerhalb derer natürlich die verschiedensten geplanten Ordnungen von Organisationen, Kollektiven und Unternehmungen entstehen können. Ein solches Modell entspricht durchaus der, vor allem in der US-amerikanischen Literatur entwickelten These von der Entstehung einer Gesellschaft und der Entstehung von Gemeinschaften innerhalb von Netzwerken:

Networks may start as solely technological tools, but they don't stay that way if they survive. They develop into places where people go, which turn into communities, which develop politics, economics, and legal issues. The sum of all these things is a society.
John S. Quarterman11
Auch wenn die Verwendung des Begriffs “Gesellschaft” vielleicht etwas überzogen sein mag, so kann man doch Gesellschaft (society) als spontane Ordnung und Gemeinschaft (community) als die geplante Ordnung einer Organisation identifizieren. Eine positive Theorie des Cyberspace wird also vor allem eine Ordnungstheorie oder auch eine Institutionentheorie sein, die die Entstehung, Evolution und Wirkungsweise von Regeln (Institutionen) im Cyberspace untersucht. Eine normative Theorie des Cyberspace wird vorrangig eine Theorie der Ordnungspolitik12 des Cyberspace sein, die eine Gestaltung dieser Institutionen und Ordnungen zum Ziel haben wird. Versteht man eine solche Theorie des Cyberspace als Bestandteil oder Erweiterung der Theoretischen Informatik (eine Sichtweise, für die einiges spricht), dann erweitert sich der von Wilfried Brauer benannte Informatikbegriff in: Intelligenz - Formalismen - Technik - Regeln - Ordnung. Nur eine solche erweiterte Theoretische Informatik kann sowohl die Schaffung der technischen Agenten/Akteure (Intelligenz-Formalismen-Technik) als auch ihre Einbettung in die Zivilisation (Regeln-Ordnung) ausreichend reflektieren.13

Inhalt


Anmerkungen

Die spontane Matrix

  1. Martens [Matrix, 1997]
Einleitung oder: Warum funktioniert das Internet?

Der Cyberspace ist das Resultat menschlichen Handelns

  1. Hayek [Recht 1, 1986, S.27ff]
  2. Brauer et al. [Informatik, 1989, S.48]; in der neusten Auflage dieses Studien- und Forschungsführers (Brauer, Münch [Informatik, 1996]) findet m.E. aber eine Annäherung an das statt, was hier "handlungstheoretische Sichtweise" genannt wird.
  3. Es erscheint mir sogar zweifelhaft, ob der Begriff Information überhaupt "objektiv", d.h. ohne Rückgriff auf menschliches Handeln sinnvoll definiert werden kann.
  4. "Auch wer bereit ist, in komplexen Informatiksystemen freie Aktoren zu sehen, sollte in ihnen Maschinen, aber keine Menschen erblicken. Auch wenn sich Menschen und Maschinen als mehr oder weniger unvorhersehbare, also freie Aktoren gegenüberstehen, stehen Aktoren von sehr unterschiedlicher Qualität und Dignität, eben Menschen und Maschinen, sich gegenüber." (Kirsch, Kohlas [Wert, 1993])
  5. "Die unterschiedliche Dignität von Menschen und Maschinen legt den Schluß nahe, daß zwischen der Ordnung der Menschen und der Ordnung der Maschinen eine Hierarchie bestehen muß..." (Kirsch, Kohlas [Wert, 1993])
  6. Ein ähnliche, komplexitätsunabhängige Definition der Agenten-Eigenschaft von Software formulieren auch Brauer, Münch [Informatik, 1996, S.13]
  7. "Softwareobjekte sind als effektive Gebrauchsgegenstände 'unabhängig von jeder Stofflichkeit' bestimmt. ...Das bedeutet aber auch, daß die gegenständliche und prozessuale Formbestimmtheit der energetischen Wirkung nicht nur gegenständlicher Gegebenheiten, sondern auch aller menschlichen Tätigkeiten vergegenständlicht werden können. ...Vergegenständlicht werden im Tätigkeitsraum eines Computers nicht nur die energetischen Momente gegenständlicher Gegebenheiten, sondern auch die der gegenstandsbezogenen 'äußeren' Tätigkeiten." (Reisin [Gestaltung, 1992, S.32])
Software - Genotyp und Phänotyp
  1. Entscheidende Anregungen für diese These verdanke ich einem Beitrag von Eckhard Bremer [Medienplanwirtschaft, 1995].
  2. Broy [Informatik 1, 1992, S.27]
  3. vgl. z.B. auch Appelrath, Ludewig [Informatik, 1992, S.11ff]
  4. Ottmann, Widmayer [Algorithmen, 1993, S.18]
  5. Raeithel [Blick, 1992, S.131] in Anlehnung an Reisin [Gestaltung, 1992]
  6. Brauer et al. [Informatik, 1989, S.49]
  7. In diesen Thesen wird also der Begriff "Handlung" (action) immer für menschliche Handlungen, also z.B. für die Handlungen von menschlichen Individuen an den Mensch-Maschine-Schnittstellen eines Computers oder des Cyberspace verwendet. Der Begriff "Operation" (operation) wird für die "Handlungen" von Software verwendet, also für die Zustandsänderung von Hardware im Computer oder im Cyberspace durch Abarbeitung von Algorithmen.
  8. vgl. dazu Boudon, Bourricaud [Stichworte, 1992, S.72ff]: "Man sagt von einem sozialen System, es sei deterministisch, wenn man aufgrund der Kenntnis seines Zustandes zum Zeitpunkt t seinen Zustand zu späteren Zeitpunkten t + 1, ..., t + k usw. vorherzusagen vermag. Dabei sind allerdings zwei Möglichkeiten zu unterscheiden. Unter Umständen verfügt der Beobachter nicht über eine Kenntnis der Elemente, die es ihm erlauben würde, den Zustand des Systems zu t + 1, ..., t + k usw. vorherzusagen, obwohl der zukünftige Zustand des Systems in seinem gegenwärtigen Zustand 'enthalten' ist. Man sagt in diesem Fall, daß das System objektiv determiniert ist, aber subjektiv als indeterminiert erscheint. ...Wenn ein System so beschaffen ist, daß selbst ein allwissender Beobachter den Zustand des Systems zu t + 1, ...,t + k usw. nicht aufgrund der Kenntnis des Systemzustandes zu t vorhersagen kann, bezeichnet man das System als objektiv indeterminiert oder sagt, daß es dem 'allgemeinen Gesetz' des Determinismus nicht unterworfen ist. Die Frage, ob es wirklich objektiv indeterminierte Systeme gibt, wirft schwierige philosophische Probleme auf... Die Hauptschwierigkeit, die sich der philosophischen Auseinandersetzung mit dem Determinismus stellt, beruht zweifellos darauf, daß sie nicht ohne die Fiktion eines allwissenden Beobachters auskommt. Man muß sich aber fragen, ob dieser Begriff nicht in sich widersprüchlich ist: Wie kann sich ein nicht-allwissender Beobachter auf den Standpunkt eines allwissenden Beobachters stellen?"
Software in einem konstruktiv abgeschlossenen Operationsraum
  1. Ein theoretisches Modell zur Definition der Unvorhersehbarkeit findet sich in Kirsch [Unvorhersehbarkeit, 1992], bezogen auf elektronische Systeme siehe auch Kirsch, Kohlas [Wert, 1993].
Software in einem konstruktiv nicht abgeschlossenen Operationsraum
  1. vgl. Menger [Untersuchungen, 1883, S.34ff]
  2. Boudon, Bourricaud [Stichworte, 1992, S.110]
Der Cyberspace ist ein konstruktiv nicht abgeschlossener Operationsraum für Software
  1. Diese Formulierungen sind - keineswegs zufällig - an entsprechende Formulierungen in Lizenzverträgen für Software angelehnt.
  2. Diese Formulierung erfolgt in Anlehnung an Gernot Gutmann [Marktwirtschaft, 1980, S.145]: "Märkte als gedankliche Zusammenfassung aller Kauf- und Verkaufshandlungen in bezug auf individuelle Sachgüter und Dienstleistungen sind in der Markwirtschaft das Instrument der Kooperation zwischen den wirtschaftenden Einheiten."
  3. vgl. zum Beispiel Menger [Untersuchungen, 1883, S.87]
Der Cyberspace ist ein komplexes Phänomen
  1. Hayek [Phänomene, 1972]
  2. Hayek [Phänomene, 1972, S.16]
  3. In Hayek [Phänomene, 1972] wird - in Einvernehmen mit dem Autor - der Begriff "pattern" mit "Muster" übersetzt. Drei Jahre später wird dieser Begriff mit "Struktur" übersetzt, wiederum im Einvernehmen mit dem Autor, wie einer Übersetzer-Anmerkung in Hayek [Anmaßung, 1975, S.15] zu entnehmen ist. Es sei hier auch an die, auf C.F. v. Weizsäcker zurückgehende Definition der Informatik als einer Strukturwissenschaft in Brauer et al. [Informatik, 1984, S.36] erinnert, auch wenn diese Definition in den inzwischen erfolgten Neuauflagen (Brauer et al. [Informatik, 1989] und Brauer, Münch [Informatik, 1996]) so nicht mehr enthalten ist.
Der Cyberspace ist das Ergebnis einer sozio-technischen Regel-Evolution
  1. "Wenn die Akteure zu einer unübersichtlichen Größe anwachsen und wenn die Wechselwirkungen und unbeabsichtigten Rückwirkungen eine kausal nicht mehr erfaßbare Komplexität annehmen, dann scheint mir der Rückgriff auf ein Konzept ungerichteter Evolution ... sinnvoll zu sein, um die Dynamik technischer Entwicklung auf dieser hochaggregierten Ebene zu beschreiben." (Rammert [Plädoyer, 1990, S.342]) Werner Rammert behandelt zwar die Technikgenese allgemein, aber bei der Evolution des Cyberspace handelt es sich natürlich in erster Linie, wenn auch nicht ausschließlich, um Technikentwicklung, also die Institutionalisierung von technischen Normen und Standards.
Der Cyberspace ist kein System, sondern eine Ordnung
  1. Boudon, Bourricaud [Stichworte, 1992, S.110]
  2. Hayek [Recht 1, 1986, S.57]
  3. vgl. Menger [Untersuchungen, 1883]
  4. Es soll hier nicht spekuliert werden, wie groß die Bedeutung dieser neuen Ordnung Cyberspace, relativ zu Rechts- oder Wirtschaftsordnung gesehen, für das reale Geschehen in der Gesellschaft letztlich sein wird. Das Spektrum der veröffentlichten Meinung reicht hier von vermutlich maßloser Übertreibung bis zur - immer noch - fast völligen Ignoranz.
Die sozio-technische Ordnung Cyberspace ist eine polyzentrale und spontane Ordnung
  1. Hayek [Ordnung, 1963]
  2. Weber [Stammlers, 1973, S.336]
  3. vgl. dazu wiederum Bremer [Medienplanwirtschaft, 1995]
  4. Hayek [Recht 1, 1986, S.59]
  5. Mestmäcker [Organisationen, 1992, S.13]
  6. Hayek [Recht 1, 1986, S.60f]
  7. Mestmäcker [Organisationen, 1992, S.12]
  8. Hayek [Recht 1, 1986, S.69]
Der Cyberspace ist eine zivilisatorische Ordnung
  1. Miller, Drexler [Markets, 1988, S.134f]
  2. Witt [Ökonomik, 1990, S.9]
  3. Hayek [Phänomene, 1972, S.22]
Die sozio-technische Ordnung Internet
  1. Eine ähnliche Definition findet sich im abstract von Batty, Barr [Frontier, 1994]: "This article defines the skeleton of cyberspace by the Internet."
  2. North [Economics, 1986, S.231]
  3. Tietzel [Institutionalismus, 1991, S.5]
  4. Joerges [Normen, 1989, S.256]
  5. LaQuey, Ryer [Internet, 1993, S.35f]
  6. Für das Internet, also für einen konkreten Bestandteil des Cyberspace, konnte hier mittels der konstitutionellen Institutionen (TCP/IP) eine eindeutige Abgrenzung gegenüber anderen technischen Netzwerken erreicht werden. Offen bleiben muß hier zunächst die Antwort auf die Frage, ob eine solch eindeutige Definition von konstitutionellen Institutionen auch bezüglich des Cyberspace selbst gefunden werden kann.
Die polyzentrale und spontane Ordnung des Internet auf konstitutioneller Ebene
  1. Auf die Erläuterung technischer Funktionsweisen muß hier verzichtet werden, da diese den üblichen Rahmen eines HTML-Dokuments sprengen würden.
  2. Der Algorithmus muß nicht-terminierend sein, da ja ähnlich einem Computer-Betriebssystem ein Dauerbetrieb angestrebt wird.
  3. Diese Annahme ist praktisch sicher z.Z. unrealistisch, stellt aber die theoretisch strengsmögliche Annahme dar.
  4. Bolz [Tele!, 10.01.1997]
  5. vgl. Hayek [Recht 1, 1986, S.57]
  6. Hayek [Recht 1, 1986, S.65]
  7. Diese Spontanität der Ordnungsbildung hat denn auch zu mancherlei Mythen und Legenden geführt, eine davon referiert Ed Krol in seiner "Internet user's bible" (Krol [Internet, 1994, S.38]).
  8. Kirsch, Kohlas [Wert, 1993]
Die polyzentrale und spontane Ordnung des Internet auf post-konstitutioneller Ebene
  1. Krol [Internet, 1994, S.153f], Hervorhebung durch den Verfasser.
  2. Menger [Untersuchungen, 1883, S.34ff]
  3. Krol [Internet, 1994, S.13]
  4. "...institutions are regularities in repetitive interactions among individuals." (North [Economics, 1986, S.231])
  5. Hayek [Entdeckungsverfahren, 1968, S.14]; vgl. auch Gutmann [Marktwirtschaft, 1980, S.141]
  6. vgl. hierzu die Untersuchungen zum BITNET in Gurbaxani [BITNET, 1990]
  7. Und das kann manchmal recht heikel werden: Der gegenwärtig heftig entbrannte Wettlauf zwischen Panzerung (Verschlüsselung von e-mails) und Geschoß (Entschlüsselung von e-mails) in den technischen und z.T. auch in den rechtlichen Grundlagen der sozio-technischen Institution e-mail zeigt, daß die individuellen und sozialen Prozesse der Erwartungsbildung und Institutionalisierung im Internet äußerst fragil und sogar reversibel sein können. Auch das ist eine, von solchen Prozessen in anderen gesellschaftlichen Ordnungen her, gut bekannte Tatsache.
Zur Lage der Informatik: Intelligenz - Formalismen - Technik - Regeln - Ordnung
  1. Brauer, Münch [Informatik, 1996, S.13]
  2. Hayek [Recht 1, 1986]
  3. Brauer, Münch [Informatik, 1996, S.13]
  4. Brauer et al. [Informatik, 1989, S.55f]
  5. Brauer et al. [Informatik, 1989, S.49]
  6. Was ja bekanntlich durchaus auch global bedeuten kann.
  7. Die gegenwärtige - man ist ja fast versucht zu sagen - Internet-Hysterie verdeckt, daß das Internet keineswegs das erste oder einzige dieser öffentlichen Netzwerke ist, die ihre Funktionsfähigkeit durch spontane Ordnungsbildung auf der Basis handlungsleitender, institutionalisierter, technischer und nicht-technischer Regeln sichern. Man denke nur an die Netzwerke privater Mailbox-Betreiber, wie das FIDO-Net oder das Zerberus-Netz, deren Funktionsweise noch ihrer "Entdeckung" durch die Wissenschaftsdiziplin "Theoretische Informatik" harrt.
  8. Auch wer die individualistische Sichtweise ablehnt und es weiterhin mit kollektivistischen Denkmodellen probieren möchte, wird die Frage zu beantworten haben, wie ein technisches Artefakt zu strukturieren sei, in dem eine Vielzahl von Kollektiven versucht, eine Vielzahl von verschiedenen und oft entgegengesetzten Zielen und Zwecken zu erreichen, indem sie eine Vielzahl verschiedenartiger und bestenfalls technisch standardisierter Software in einem gemeinsamen Operationsraum als Agenten einsetzen.
  9. "Den Maschinen ist erlaubt, keine vorhersehbar funktionierenden Instrumente, sondern unvorhersehbar interagierende Aktoren zu sein, wenn und in dem Maße wie die Ergebnisse dieser Freiheit trotz und wegen ihrer mehr oder weniger großen Unvorhersehbarkeit für die Menschen nutzbar sind; man gestattet den Maschinen jenes Maß an Freiheit, das für die Menschen instrumentalisierbar ist." (Kirsch, Kohlas [Wert, 1993])
  10. Hayek [Recht 1, 1986, S.57]
  11. Quarterman [Minds, 1993, S.49]
  12. "...die Ordnungspolitik (kann) sich nicht mehr darauf beschränken ..., den gesellschaftlichen Umgang nur der Menschen untereinander zu regeln; sie wird auch die Regeln thematisieren müssen, nach denen Menschenaktoren mit Maschinenaktoren und Maschinenaktoren mit Menschenaktoren umgehen sollen; ja, sie wird sich in die bislang vornehmlich technisch geführte Diskussion über die Beziehungen von Maschinenaktoren zu Maschinenaktoren einschalten können und müssen." (Kirsch, Kohlas [Wert, 1993])
  13. Was ich hier vorschlage, hätte ich gern - in Anlehnung an die immerhin altehrwürdige Forschungsrichtung der "Politischen Ökonomie" (Political Economy) - "Politische Informatik" (Political Informatics) genannt. Allerdings ist der Begriff des "Politischen" heute so sehr mit (haltlosen) Illusionen überfrachtet, daß eine solche Namensgebung nur dazu beitragen dürfte, daß wieder einmal das Machbare aufs heftigste mit dem Wünschenswerten verwechselt wird. Die Heilserwartungen jedenfalls, die derzeit in allerlei "Magna Chartas des Cyberspace" kursieren, lassen nichts Gutes erahnen und sie haben bestimmt nichts mit jenen "regelhaften Erwartungen" zu tun, von denen in diesem Papier die Rede ist.
Inhalt

Literatur

Hinweis: Publikationen, die dem Autor nur als elektronische Kopie vorliegen, werden hier unter dem Datum des Tages, an dem die Kopie durch den Autor erfolgte, aufgeführt. Auf die Angabe konkreter Zugriffspfade (z.B. WWW-Adressen) wird bewußt verzichtet. Zum einen sind diese Zugriffspfade, vergleichbar den Bibliothekssignaturen, zur Kennzeichnung der Publikation eigentlich irrelevant und zum anderen können sie sich aus organisatorischen oder technischen Gründen ändern. Die aktuellen Adressen aller hier aufgeführter elektronischer Publikationen können mit Hilfe entsprechender Suchverfahren ("Suchmaschinen") im Internet aufgefunden werden.

Appelrath, Hans-Jürgen; Ludewig, Jochen [Informatik, 1992]: Skriptum Informatik. Eine konventionelle Einführung. 2., durchges. Aufl. Stuttgart: Teubner; Zürich: Verlag der Fachvereine

Batty, Michael; Barr, Bob [Frontier, 1994]: The Electronic Frontier. Exploring and mapping cyberspace. In: Futures, 26(1994), No.7, pp.699-712

Bolz, Norbert [Tele!, 10.01.1997]: Tele! Polis! - Das Designproblem des 21.Jahrhunderts. Elektronische Kopie über WWW.

Boudon, Raymond; Bourricaud, Francois [Stichworte, 1992]: Soziologische Stichworte (Dictionnaire Critique de la Sociologie, 1984, 2.Aufl.). Opladen: Westdeutscher Verlag

Brauer, Wilfried et al. (Hrsg.) [Informatik, 1984]: Studien- und Forschungsführer Informatik. Berlin et al.: Springer

Brauer, Wilfried et al. (Hrsg.) [Informatik, 1989]: Studien- und Forschungsführer Informatik. 2., neubearb. und erw. Aufl., Berlin et al.: Springer

Brauer, Wilfried; Münch, Siegfried [Informatik, 1996]: Studien- und Forschungsführer Informatik. Wissenschaftliche Hochschulen und Forschungseinrichtungen. 3., völlig überarb. Aufl., Berlin et al.: Springer

Bremer, Eckhard [Medienplanwirtschaft, 1995]: Medienplanwirtschaft. Organisationsrechtliches Denken bei der Interpretation der Rundfunkfreiheit durch Bundesverfassungsgericht und Staatsrechtslehre. In: ORDO, 46(1995), S.361-389

Broy, Manfred [Informatik, 1992-1994]: Informatik. Eine grundlegende Einführung. Berlin et al.: Springer (Springer-Lehrbuch).

Gurbaxani, Vijay [BITNET, 1990]: Diffusion in Computing Networks: The Case of BITNET. In: Communications of the ACM, 33(1990), No.12, pp.65-75

Gutmann, Gernot [Marktwirtschaft, 1980]: Marktwirtschaft. In Albers, Willi u.a. (Hrsg.): Handwörterbuch der Wirtschaftswissenschaft (HdWW), Bd. 5. Stuttgart, New York: Fischer; Tübingen: Mohr; Göttingen, Zürich: Vandenhoeck & Ruprecht, S.140-153

Hayek, F.A. [Ordnung, 1963]: Arten der Ordnung. In: ORDO, 14(1963), S.3-20

Hayek, F.A. von [Entdeckungsverfahren, 1968]: Der Wettbewerb als Entdeckungsverfahren. Kiel: Universität Kiel (Kieler Vorträge; Neue Folge, 56)

Hayek, F.A. von [Phänomene, 1972]: Die Theorie komplexer Phänomene (The Theory of Complex Phenomena, aus dem Engl. übers. v. Erich Hoppmann). Tübingen: Mohr (Siebeck). (Walter-Eucken-Institut; Vorträge und Aufsätze; 36)

Hayek, F.A. von [Anmaßung, 1975]: Die Anmaßung von Wissen. In: ORDO, 26(1975), S.12-21

Hayek, Friedrich A. von [Recht 1-3, 1981/1986]: Recht, Gesetzgebung und Freiheit. Eine neue Darstellung der liberalen Prinzipien der Gerechtigkeit und der politischen Ökonomie (Law, Legislation and Liberty. Aus dem Amerikanischen übertr. von Martin Suhr). Landsberg am Lech: Verlag Moderne Industrie

Joerges, Bernward [Normen, 1989]: Technische Normen - Soziale Normen? In: Soziale Welt, 40(1989), S.242-258

Kirsch, Guy [Unvorhersehbarkeit, 1992]: Unvorhersehbarkeit - Ein Ausdruck der Freiheit. In: Jahrbuch für Neue Politische Ökonomie, 11(1992), S.16-29

Kirsch, Guy; Kohlas, Jürg [Wert, 1993]: Der Wert des Unvorhersehbaren. Die Marktwirtschaft als Vorbild einer Ordnung der Freiheit für Menschen und Maschinen. Woran Planwirtschaften scheitern. Frankfurter Allgemeine Zeitung, Ausgabe D., Nr. 106 vom 08.05.1993, S.15

Krol, Ed [Internet, 1994]: The Whole Internet. User's Guide & Catalog. Second Ed. Sebastopol, CA.: O'Reilly

LaQuey, Tracy; Ryer, Jeanne C. [Internet, 1993]: The Internet Companion. A Beginner's Guide To Global Networking. Reading, Mass. et al.: Addison-Wesley

Martens, Rolf [Matrix, 1997]: Die spontane Matrix. Thesen zu einer Ordnungstheorie von Cyberspace und Internet. Schenefeld, 1997 (unveröffentlichtes Thesenpapier)

Menger, Carl [Untersuchungen, 1883]: Untersuchungen über die Methode der Socialwissenschaften, und der Politischen Oekonomie insbesondere. Leipzig: Duncker & Humblot. Wiederabgedruckt in Menger, Carl: Gesammelte Werke. Herausgegeben mit einer Einleitung und einem Schriftenverzeichnis von F.A. Hayek. Band II, 2.Aufl., Tübingen: Mohr (Siebeck), 1969

Mestmäcker, Ernst-Joachim [Organisationen, 1992]: Organisationen in spontanen Ordnungen. Freiburg i.B.: Haufe (Friedrich-A.-von-Hayek-Vorlesung; 1991)

Miller, Mark S.; Drexler, Eric K. [Markets, 1988]: Markets and Computation: Agoric Open Systems. In Huberman, B.A. (Ed.): The Ecology of Computation. Amsterdam et al.: Elsevier (Studies in Computer Science and Artificial Intelligence; 2), pp.133-176

North, Douglass C. [Economics, 1986]: The New Institutional Economics. In: Journal of Institutional and Theoretical Economics, 142(1986), S.230-237

Ottmann, Thomas; Widmayer, Peter [Algorithmen, 1993]: Algorithmen und Datenstrukturen. 2., vollst. überarb. und erw. Aufl. Mannheim et al.: B.I.-Wissenschaftsverlag (Reihe Informatik; Bd. 70)

Quarterman, John S. [Minds, 1993]: The Global Matrix of Minds. In Harasim, Linda M. (Ed.): Global Networks. Computers and International Communication. Cambridge, Mass.; London: MIT Press. pp.35-56

Raeithel, Arne [Blick, 1992]: Ein kulturhistorischer Blick auf rechnergestützte Arbeit. In Coy, Wolfgang et al. (Hrsg.): Sichtweisen der Informatik. Braunschweig, Wiesbaden: Vieweg (Theorie der Informatik). S.125-139

Rammert, Werner [Plädoyer, 1990]: Plädoyer für eine Technikgeneseforschung. Von den Folgen der Technik zur sozialen Dynamik technischer Entwicklungen. In Biervert, Bernd; Monse, Kurt (Hrsg.): Wandel durch Technik? Institution, Organisation, Alltag. Opladen: Westdeutscher Verlag (Sozialverträgliche Technikgestaltung: Materialien und Berichte; Bd. 10), S.333-350

Reisin, Fanny-Michaela [Gestaltung, 1992]: Kooperative Gestaltung in partizipativen Softwareprojekten. Frankfurt a.M. et al.: Lang (Europäische Hochschulschriften: Reihe 41, Informatik; Bd.7). Zugl.: Berlin, Techn. Univ., Diss., 1990

Tietzel, Manfred [Institutionalismus, 1991]: Der Neue Institutionalismus auf dem Hintergrund der alten Ordnungsdebatte. In: Jahrbuch für Neue Politische Ökonomie, 10(1991), S.3-37

Weber, Max [Stammlers, 1973]: R.Stammlers "Ueberwindung" der materialistischen Geschichtsauffassung. 1907. In Weber, Max: Gesammelte Aufsätze zur Wissenschaftslehre. Vierte, erneut durchgesehene Auflage, hrsg. von Johannes Winckelmann. Tübingen: Mohr (Siebeck). S.291-359

Witt, Ulrich [Ökonomik, 1990]: Einleitung: Warum evolutorische Ökonomik? In Witt, Ulrich (Hrsg.): Studien zur Evolutorischen Ökonomik. Berlin: Duncker & Humblot (Schriften des Vereins für Socialpolitik, Gesellschaft für Wirtschafts- und Sozialwissenschaften; N.F., Bd.195), 1(1990), S.9-17

Inhalt


Zusammenfassung / Abstract

Der Terminus Cyberspace wird in diesen Thesen verstanden als eine gedankliche Zusammenfassung aller Operationen vom Computer-Software, die außerhalb des Computers, auf dem die jeweilige Software implementiert ist, Wirkungen erzielen. Dabei stehen Mensch und Software immer in einem Prinzipal-Agent-Verhältnis, d.h. das Individuum (Prinzipal) beauftragt eine bestimmte Software (Agent) mit Operationen (Aktivitäten), die der Erreichung bestimmter, durch den Prinzipal gesetzter Ziele dienen. Der Cyberspace ist also die - größtenteils unbeabsichtigt, ungeplant und unreflektiert entstandene - Resultante der Bestrebungen und Handlungen derjenigen Individuen, die ihre Ziele mit Hilfe der Operationen von Software im Cyberspace zu verwirklichen suchen.

Der Cyberspace als Gesamtheit ist kein technisches System, da keine exakte technische oder algorithmische Spezifikation dieser Gesamtheit existiert. Der Cyberspace ist eine spezifische sozio-technische Ordnung der Gesellschaft, in der die millionenfachen, unabhängigen Handlungen von Individuen an den Mensch-Maschine-Schnittstellen des Cyberspace und die millionenfachen, unabhängigen Operationen von Software im Cyberspace durch sozio-technische Regeln miteinander koordiniert werden. Der Cyberspace ist auch nicht die "gemachte Ordnung" (Taxis) einer Organisation, weil die interne Struktur des Cyberspace nicht aus einem externen Organisationsschema abgeleitet ist. Der Cyberspace ist vielmehr eine "spontane Ordnung" (Kosmos), in der die polyzentral handelnden Individuen Muster empirisch beobachtbarer Regelmäßigkeiten wahrnehmen, aufgrund dieser Wahrnehmungen regelhafte Erwartungen über den Cyberspace bilden und ihr Handeln an diesen Erwartungen ausrichten.

Das Internet wird als Prototyp des Cyberspace betrachtet. Konstitutiv für das Internet sind die TCP/IP (Transmission Control Protocol/Internet Protocol). Diese Protokolle sind die konstitutionellen Institutionen (Regeln) des Internet; sie sind handlungsleitende Regeln für Individuen und Software, die lediglich die Art und Weise des Austauschs von Datenpaketen im Internet regeln, die aber keine Festlegungen über die Ziele und Zwecke dieses Austauschs von Datenpaketen enthalten. Die post-konstitutionellen Institutionen des Internet entstehen, wenn der Austausch von Datenpaketen über das Internet mit einer gewissen Regelmäßigkeit im Rahmen bestimmter übergeordneter technischer und/oder nicht-technischer Strukturen stattfindet. Diese Strukturen können als institutionelle Arrangements zur Koordination der Handlungen von Individuen an den Mensch-Maschine-Schnittstellen des Internet und zur Koordination der Operationen ihrer Software im Internet interpretiert werden.

Die konstitutionellen und post-konstitutionellen Institutionen des Internet, sowie die Handlungen von Individuen an den Mensch-Maschine-Schnittstellen des Internet und die Operationen von Software im Internet ergeben gemeinsam die polyzentrale und spontane Ordnung des Internet.



In this thesis the term cyberspace is understood to mean a mental summing of all operations of software which have any effect outside the computer on which the software itself is implemented. There is always a principal-agent relationship between man and software in which an individual (principal) uses a specific software (agent) to carry out operations (activities), in order to achieve certain goals defined by the principal. Thus cyberspace is mostly the unintentional, unplanned and unreflected resultant of intentions and actions by individuals who want to achieve their goals through software operations in cyberspace.

Cyberspace as a whole is not a technical system as there is no precise technical or algorithmic specification of this entity. Cyberspace is a specific socio-technical order of society where millions of independent actions of individuals at the human-machine-interfaces of cyberspace and millions of independent software operations in cyberspace are co-ordinated by socio-technical rules. Cyberspace also is not the 'made order' (taxis) of any organisation because the internal structure of cyberspace is not derived from the structure of an external organisation. Cyberspace is instead a 'spontaneous order' (kosmos) in which polycentral acting individuals notice patterns of observational regularities. Based on these observations, the individuals form regulated expectations about cyberspace and act according to these expectations.

The Internet is seen as the prototype for cyberspace. The TCP/IP (Transmission Control Protocol/Internet Protocol) constitute the Internet. These protocols are the constitutional institutions (rules) of the Internet. They are act-leading rules for individuals and software which only regulate how data packets are exchanged in the Internet, but do not determine the goals and purposes of this exchange. The post-constitutional institutions of the Internet arise when the exchange of data packets take place more or less regularly in a framework of certain higher technical and/or non-technical structures. These structures can be interpreted as institutional arrangements for the coordination of mans actions at the human-machine-interfaces of the Internet and for the coordination of software operations in the Internet.

The constitutional and post-constitutional institutions of the Internet; the acting of individuals at the human-machine-interfaces of the Internet; and the software operations in the Internet create the polycentral spontaneous order of the Internet.

Inhalt