| Home | Back to List of Articles |
Zwei Kommunikationsstile,
zwei Kommunikationsnetze:
Inose Hiroshi und Murai Jun
 
Volker Grassmuck
für
Japan-Zentrum, Ludwig-Maximilians-Universität München, 20.6.97
&
Steffi Richter (Hrsg.), Japan Lesebuch 3. Intelli, Konkursbuchverlag, Tübingen 1998, S.33-49
 
 

Der Topos eines Übergangs von einer materiellen zu einer intellektuellen oder Wissensgesellschaft ist in Japan spätestens seit den Ölschocks der 70er Jahre fest verankert. Es rühmt sich gar, Urheber des Wortes, wenn auch nicht unbedingt der Sache "Informationsgesellschaft" zu sein (Hayashi 1969). Umso mehr verwundert es zu sehen, daß heute das Internet von verschiedenen Beobachtern als "Dritte Öffnung Japans" aufgefaßt und in eine Reihe gestellt mit den Schwarzen Schiffen Kommodore Perrys und den Atombomben auf Hiroshima und Nagasaki (Kaminuma 1996). Eine fremde Hochtechnologie, die in die "Inselnation" ähnlich gewaltsam eindringt wie die beiden vorangegangenen Waffentechnologien, fungiert als "eine Quelle von wachsendem Druck auf Japan, sich selbst der Welt gegenüber zu öffnen." (Maeno 1996)

Das Motiv der Veränderung einer auf Stabilität bedachten Gesellschaft durch Schock findet sich seit der Meiji-Restauration. Doch auf Öl- und Dollar-Schock oder die geplatzte Wirtschaftsseifenblase reagierte die erschütterungsgewohnte Erdbebenkultur flexibel und machte sich sogleich an den Wiederaufbau der wirtschaftlichen, kulturellen und Steuerungssysteme unter den neuen Bedingungen. Die rhetorische Figur des Internet als Kriegsschiff oder Atombombe deutet auf eine tiefer ansetzende Dynamik: eine "Penetration" , von der aus das Verhältnis zwischen "uns" und "den anderen" neu bestimmt, das Mandala der nationalen Identitätsdiskurse neu arrangiert werden muß.

Inose Hiroshi und Murai Jun sollen mir im Folgenden dazu dienen, zwei Paradigmen in der japanischen Kommunikationstechnologie und -Kultur nachzuzeichnen. Es geht dabei nicht darum, Technologiegeschichte zu personifizieren, auch wenn beide nicht nur Systemplätze im Ablaufenden ausfüllen, sondern die Entwicklungen, die sich ähnlich z.B. auch in Deutschland nachzeichnen ließen, mit persönlichem Stil und Engagement prägten. Vielmehr soll das, was Deleuze/Guattari Rhizome und Baumstrukturen genannt haben (Deleuze/Guattari 1977), oder Manuel De Landa Meshworks und Hierarchien (De Landa o.J.), durch sie einen Kontext und einen Namen erhalten.
 

 

Erste Szene

Versteckt in einer Seitenstraße von Bunkyo-ku im Zentrum von Tokyo steht an der Ecke einer abweisenden Mauer ein Tor. Dahinter taucht ein Würde und Alter ausstrahlender roter Bau auf, das im 19. Jahrhundert errichtete ehemalige Krankenhaus der Tokyo Universität. Es überblickt einen großzügig angelegten japanischen Garten, den man hier im Zentrum nicht erwartet hätte. Eine Oase in Zeit und Raum. Hier hat die Leitung des "National Center forScience Information Systems" (NACSIS) ihren Sitz. Sein Generaldirektor empfängt in einem nicht nur für japanische Verhältnisse gewaltigen Büro, das noch größer wirkt, ist man erst in die schwere Ledergarnitur gesunken. Inose Hiroshi, ein freundlicher älterer Herr, gewährt dem mit der Tokyo Universität verbundenen Besucher aus Deutschland mehr als zwei Stunden seiner Zeit.

Inose, Jahrgang 1927, graduierte 1948 an der Tokyo Universität in Elektrotechnik, im selben Jahr, als an den Bell-Labs der Transistor erfunden wurde. Danach begann er, sich mit Telefonvermittlungstechnologie zu beschäftigen, die damals noch auf elektromagnetischen Relais beruhte. Sie war auch noch nicht Gegenstand universitärer Bildung und Forschung, sondern die Aufgabe von Technikern.

Der -- im Wired-Jargon gesprochen -- "coolste" Trend der Zeit war die Elektronisierung. Für die Schaltung der Teilnehmerleitungen in lokalen Vermittlungsstellen wurden in den 50er Jahren bereits transistorisierte Spezialrechner eingesetzt. Schwieriger war die Steuerung des Sprachweges zwischen den Vermittlungsstellen. Dafür waren neue theoretische Ansätze unter Verwendung der Wahrscheinlichkeitslogik notwendig. Inose entwickelte zu diesem Zweck den ersten vollelektronischen, auf Vakuumröhren basierenden Simulator der Welt. Dafür fand er auch international Anerkennung und wurde 1956 an die AT&T Bell-Labs in die USA eingeladen.

Dort forschte er über eine neues Verfahren, mehrere Telefongespräche gleichzeitig über dieselbe Leitung zu übertragen, die sog. Zeit-Division. Dafür wird das kontinuierliche Signal der Sprache in kurzen Abständen abgetastet und digital codiert. Geschehen Digitalisierung und Übertragung in schneller Folge (genau: alle 125 Mikrosekunden), können die Datenpakete mehrerer Gespräche zeitlich versetzt über dieselbe Leitung übertragen werden, und dennoch wird jeder Telefonteilnehmer den Eindruck haben, sich ohne Unterbrechung mit seinem Gegenüber zu unterhalten. Man benötigt dazu Hochgeschwindigkeitsspeicher, um die eintreffenden Bits zwischenzuspeichern und ineinandergefädelt weiterzuschicken (store and forward). Die von Inose entwickelte "Time-Slot-Interchange"-Methode wird heute, nachdem Speicherkomponenten zur billigen Massenware geworden sind, in allen digitalisierten Telefonsystemen der Welt verwendet.

Inose ist also ein Pionier der Digitaltechnologie im Rahmen des Telefonie-Paradigmas. Vor dem Hintergrund dieses großen internationalen Erfolges errichtete er seine steile Karriere, die mit zahlreichen Auszeichnungen und professionellen Affiliationen gepflastert ist, u.a. als Vorsitzender zweier OECD-Komitees und der wichtigsten Ausschüsse der Ministerien für Außenhandel und für Post und Telekommunikation. Vor allem aber das in Bezug auf Computer unbedarfte Bildungsministerium wurde zu seiner Operationsbasis. Von 1961 bis zu seiner Emeritierung 1987 unterrichtete er Elektrotechnik an der Tokyo Universität, und seine Schüler sitzen in Führungspositionen in Wirtschaft und Politik. Beobachtern zufolge ist Inose der mächtigste Mann im Feld der japanischen Informationstechnologie (Johnstone 1994).
 

Zwischenspiel: Datennetze in den USA
Medientechnologie, auch wenn sie den Köpfen ungarischer Mathematiker, deutscher Physiker oder japanischer Nachrichteningenieure entstammt, hat ihren Innovationsfokus spätestens seit Ende des 2.Weltkrieges in den USA. Für Japan stellen die USA in fast jeder Hinsicht die wichtigste Referenznation dar. So wurde auch in der Geschichte der japanischen Computernetze jeder einzelne Schritt durch amerikanische Entwicklungen ausgelöst, sei es als "Domestizierung" (Tobin) oder als versuchte Gegenreaktion. Deshalb sei hier kurz an die wichtigsten Schritte erinnert.

Das erste Computernetz war das noch im 2.Weltkrieg geplante Frühwarnsystem SAGE. Es verband über Telefonleitungen in einer zentralisierten Sternarchitektur Hunderte von Radarstationen, Großrechner und Terminals. Diese "Central Command and Control"-Struktur herrschte auch im zivilen Bereich bis in die 70er Jahre vor (Hellige 1992). Auch das erste japanische Computernetz, das 1960 in Betrieb genommene Sitzplatzreservierungssystem der Staatsbahn, folgte dem Vorbild des SAGE. In der Folgezeit entstanden komplexere Formen der Datenkommunikation, jedoch nur innerhalb der gegeneinander isolierten Inselwelten von Fujitsu, Hitachi, NEC, IBM oder DEC.

In den 60ern wurde ein neues Verfahren der Computerkommunikation entwickelt, das - so die militärische Vorgabe - ohne zentrale und daher im Kriegsfall leicht angreifbare Vermittlungsknoten auskommt. Dabei wird eine Information in kleine Dateneinheiten, Pakete oder auch Datagramme genannt, zerlegt, die mit Information über Absender- und Empfängeradresse versehen ihren Weg durch das Netz gleichsam selbst suchen und am Ziel wieder zusammengefügt werden. Paketvermittlung ähnelt dem store-and-forward der digitalen Telefonie, doch wird sie nicht über zentrale Vermittlungsstellen geschaltet, sondern über ein Gitter von sog. Routern, die Pakete an den jeweils nächsten angeschlossenen Computer weiterschicken.

Im Auftrag der ARPA (Advanced Research Projects Agency) des amerikanischen Verteidigungsministeriums wurde 1969 erstmals ein Netz mit dieser Architektur errichtet, das ARPA-Net. Daraus entstand von 1974-78 der Protokollsatz TCP/IP (Transport Control Protocol/Internet Protocol), das heutige Internet.

Wichtig ist hier, daß diese Netzprotokolle, ebenso wie das an den Bell-Labs entwickelte Betriebssystem UNIX, darauf ausgelegt waren, auf der Hardware der unterschiedlichsten Hersteller implementierbar zu sein. Im Gegensatz zu den bisherigen geschlossenen, proprietären Netzen, in denen z.B. nur IBM-Computer miteinander kommunizieren konnten, entsteht hier eine Art multikulturelles, offenes Netz. Seine technische Struktur ist dezentral und verteilt. Seine soziale Organisation beruht auf der lokalen Zusammenarbeit sog. Peers.

In dieser Umgebung gedeiht das, was gemeinhin mit der "wilden Phase" des ursprünglichen Internets assoziiert wird: eine Gabentausch-Ökonomie für Software und Information, eine Graswurzel-basierte Selbstorganisation, emergierende Communities und der Hacker-Geist, der jede Schließung, jede Beschränkung des Zugangs und des freien Informationsflusses zu umgehen weiß (vgl. Levy 1994).

In der Telekommunikationswelt, in der Inose zuhause ist, löste das ARPANet erst Skepsis und dann Verwunderung darüber aus, daß eine solche Agglomeration unterschiedlichster Bestandteile und Übertragungswege überhaupt funktionieren kann. Nachdem das hinreichend bewiesen war, begannen die Telcos sich für diesen Sprößling des akademischen Experimentierfeldes zu interessieren. Ausschlaggebend war, daß Paketvermittlung, bei der mehrere Datenströme gebündelt übertragen werden, die vorhandene Bandbreite wirtschaftlicher nutzt, als Leitungsvermittlung, bei der eine Leitung für die Dauer einer Verbindung von einem Ende zum anderen belegt ist. Als damals noch öffentliche Monopole mußten die Telcos jedoch ihre Dienste flächendeckend anbieten, sie zentral abrechnen können und dafür eine stabile, verlustfreie Übertragung garantieren. Ein kommerziell betriebenes Netz, betont Inose, stelle andere Anforderungen an Robustheit und garantierbare Dienstequalität, als ein Forschungsnetz. "Keine Kontrolle ist schön und gut in einem verteilten, offenen Netz von Gleichen. Die Forscher haben wechselseitig eine gemeinsame Kultur aufgebaut. Als Hobby mag das angehen, die Geschäftswelt kann so etwas nicht verwenden."

Die Telcos vor allem in England, Italien, Deutschland und Japan unterlegten daher den unberechenbaren Paketflüssen eine "virtuelle Kanalstruktur". Auch in diesem System werden Pakete verschiedener Verbindungen auf derselben physikalischen Leitung ineinandergefädelt, aber nur bis zu einer Obergrenze, bis zu der die Kapazität für jede einzelne Verbindung gewährleistet werden kann. Außerdem ist dieses Netz nicht verteilt, sondern über zentrale Vermittlungsstellen geschaltet. Die Spezifikationen dieses Dienstes wurden im Rahmen der Internationalen Telekommunikations-Union verhandelt und 1976 unter der Bezeichnung X.25 verabschiedet. NTT führte diese Datenübertragungsmethode als öffentlichen Dienst 1980 unter dem Namen DDX-P (Digital Data eXchange - Paket switched) ein. In Deutschland ist er bekannt als Datex-P.

Damit ist der Gegensatz aufgespannt zwischen einem rhizomatischen Netz, das aus einem militärischen Kalkül heraus von einzelnen Knoten dezentral wuchert, und einer hierarchischen, baumförmigen Struktur, die zentral geplant und verwaltet wird.
 

Erster Aufzug: Japans Netz "Nummer 1"
In der japanischen akademischen Welt boten seit Ende der 60er Jahre sieben inter-universitäre Computerzentren (in Sapporo, Sendai, Tokyo, Nagoya, Kyoto, Osaka und Fukuoka) den Forschungseinrichtungen in ihrer Region Zugang zu Rechenkapazitäten. Auch hier war der Informationsfluß sternförmig zentralisiert, und es gab es keine Möglichkeit, sie untereinander zu vernetzen.

Das ARPANet löste in Japan Bestrebungen aus, ein ähnliches herstellerübergreifendes Weitverkehrsnetz zwischen diesen sieben Universitäten zu errichten, das zugleich Forschungsgegenstand und -Infrastruktur sein sollte. 1974 begann das N1-Projekt unter Leitung von Inose und finanziert vom Bildungsministerium. Darin arbeiteten zunächst die Universitäten Tokyo und Kyoto zusammen mit NTT, sowie mit Hitachi, Fujitsu und NEC, von denen die Großrechner in den Universitäten stammten. "N1" stand, wie mir Inose erklärte, für Japans Netz "Nummer 1".

Das N1 setzte von Anfang an auf dem X.25-Protokoll auf, dessen Prototyp in dieser Umgebung zusammen mit NTT getestet wurde. "Die Verwendung eines öffentlichen Datendienstes erspart den Computerzentren im wesentlichen die Installation, die Wartung und den Betrieb des Netzwerks." (Inose 1981) Oberhalb dieser Schicht wurde innerhalb von drei Jahre oder 200.000 Mannstunden das Kommunikationsprotokoll zwischen den Host-Rechnern, also das eigentliche N1-Protokoll, sowie die Anwendersoftware entwickelt. Darunter schuf jeder der drei Computerhersteller spezifische Hard- und Software, mit der ihre Großrechner die beiden Protokolle bedienen konnten.

Der wichtigste Unterschied zum ARPAnet lag in den Anwenderdiensten, die für das N1 entwickelt wurden. Das waren in den ersten Jahren nur zwei: "Remote Job Entry", um einen Rechenauftrag auf einen anderen Host zu übertragen, dort auszuführen und das Ergebnis zurückzubekommen, und "Remote Login" (hier "Network Virtual Terminal" genannt), das eine zeichenorientierte Verbindung zwischen einem "dummen" Terminal und einem Großrechner herstellt, auf dem so Prozesse ausgelöst werden können. Noch bestand der Zeichensatz nur aus Lateinbuchstaben und Katakana, denn erst 1978 standardisierte die Japanische Industriestandardbehörde JIS den ersten Kanji-Code.

Beide Anwendungen gehen vom Computer als einer numerischen Rechenmaschine aus. Im ARPANet, das auf der gleichen Prämisse aufbaute, hatte sich jedoch schon Anfang der 70er eine ganz andere Verwendungsform herausgebildet. Email und News wurden zu den häufigsten Anwendungen und zeigten, daß Menschen nicht ausschließlich mit Computern, sondern vor allem mit anderen Menschen kommunizieren wollten. Der Computer wird hier als Medium erkennbar. An andere Anwendungen wie Datenbankzugriff wurde im N1 gedacht, doch Email oder News waren nicht nur nicht vorgesehen, sondern durch das Telekommunikationsmonopol von NTT untersagt.

1976 begannen die Experimente am N1 zwischen Tokyo und Kyoto. Im gleichen Jahr startete ein Großforschungsprojekt mit mehr als 500 Forschern aus dem ganzen Land unter dem Titel "Der Formationsprozeß von Informationssystemen und die Organisation von wissenschaftlicher Information." Es war wiederum das Monbushô, das den Etat von über einer Milliarde Yen über drei Jahre bereitstellte. Die Gesamtleitung hatte (im zweiten und dritten Jahr) Inose (Inose 1981). Ende 1981 ging das N1 schließlich zwischen den sieben Rechenzentren auf Basis von DDX-P in Betrieb.

Zwei Jahre später verzeichnen die Protagonisten zwar einen regelmäßigen Zuwachs der Nutzung des N1, dennoch sind sie in der Einschätzung des Bedarfs auffällig zurückhaltend. Zunächst sei Japan ein kleines Land und verfüge über vergleichsweise wenige Computer. "Aufgrund der Tatsache, daß Datenübertragung nicht schnell und nicht billig genug ist im Vergleich zu den Transportkosten solcher Daten auf Magnetband, mußten keine Hochgeschwindigkeits-Datennetze eingesetzt werden." (Asano et.al. 1993) Neue Dienste werden vorausgesehen, doch selbst bei großzügiger Berechnung würden sie das N1 nur einige Stunden am Tag auslasten, also eine Anmietung von Standleitungen nicht rechtfertigen. "Mit anderen Worten, von vorrangigster Bedeutung in Computernetzen ist es nicht, einen Super-Highway für den Datenverkehr zu bauen, sondern Konnektivität zwischen einer großen Zahl von Nutzern und verteilten Datenbanken und anderen Ressourcen bereitzustellen." (ebd.)

Inoses Operationsbasis war, wie gesagt, das Bildungsministerium. Während das MITI die Computer-Hard- und Software-Entwicklung steuerte und das MPT im Hinblick auf die Telekommunikation Schnittstellen zur Computertechnologie entwickelte, waren die Beamten des Monbushô in Computerfragen gänzlich unbedarft. Es ist auch daran zu erinnern, daß die Schreibmaschine in Japan keine breite Anwendung gefunden hatte und die erste Textverarbeitungsmaschine (Wdo purosess, kurz wâpuro) erst 1979 auf den Markt kam. Außer unter wenigen Sekretärinnen, Setzern und Informatikern herrschte daher Fremdheit und Angst gegenüber der Tastatur. Insofern waren die Bürokraten des Monbushô froh darüber, daß Inose ihnen die leidigen Computerprobleme abnahm. Und man dankte es ihm reichlich.

1986 schuf das Monbushô das "National Center for Science Information Systems" (NACSIS), deren Generaldirektor nach seiner Emeritierung 1987 Inose wurde. Zwar gab es bereits das schon 1957 gegründete "Japan Information Center of Science and Technology" mit vergleichbaren Aufgaben, doch das unterstand der Wissenschafts- und Technologiebehörde und hatte im Laufe der Jahre einen eigenen Kreis von alteingesessenen Interessengruppen um sich gebildet. NACSIS ist -- will man es böse sagen -- ein maßgeschneiderter persönlicher Altersaktivitätssitz für Inose.

NACSIS wurde mit dem Betrieb des N1 und seiner Dienste und Datenbanken betraut. Entgegen der früheren Einschätzung über das Verkehrsaufkommen, stellte NACSIS im Gründungsjahr das N1 um auf Standleitungen und betrieb darüber ein eigenes X.25-Netz. Bis 1990 wurde in die Infrastruktur investiert, um den Dienst landesweit allen Universitäten zur Verfügung zu stellen.

In den internationalen Gremien wurde nach Abschluß der Standardisierung von X.25 ein umfassendes Netzwerkprotokoll namens "Open Systems Interconnection" (OSI) in Angriff genommen. Man sieht, daß Offenheit und Interkonnektivität, die sich durch TCP/IP und UNIX als so mächtig erwiesen hatten, auch hier zum Programm wurden. Nur, daß der institutionelle Rahmen ein ganz anderer war.

An den unterschiedlichen Standardsetzungsverfahren um OSI und TCP/IP werden die beiden Perspektiven, um die es mir hier geht, sehr gut deutlich. Im ersten Fall beruht das Verfahren auf einem vertikalen, mehrschichtigen Prozeß aus Vorschlägen, Ausarbeitungen und Abstimmungen, die zwischen den nationalen Standardisierungsorganisationen und den Arbeitsgruppen und schließlich dem Plenum der International Standards Organization (ISO) hin- und hergeht. Dabei sollen alle Interessen berücksichtigt werden. Der Standard soll in einem theoretischen Sinne vollständig sein. Er soll zugleich rückwärtskompatibel und abstrakt genug sein, um zukünftige Entwicklungen nicht zu verbauen. Durch die begrenzte Zirkulation in den am Verfahren beteiligten Institutionen werden Standards auch nur begrenzt getestet, bevor sie verabschiedet werden. All das führt dazu, daß, ist ein Standard endlich verabschiedet, sich die Technologie schon wieder weiterentwickelt hat.

Im Gegensatz dazu sind die entsprechenden Arbeitsgruppen des Internet für alle Interessierten offen. Der Anspruch zielt nicht auf Vollständigkeit, sondern auf zügig einsetzbare Lösungen, und alle Diskussionen werden im Netz selbst öffentlich geführt, so daß emergierende Technologien breit getestet werden.

Wie zu erwarten, unterstützte Inose, als Vertreter des nationalen Interesses, OSI. Nur in diesem förmlichen Entscheidungsprozeß sei "Fairneß" garantiert. Die Ergebnisse stünden, als öffentliches Gut, z.B. auch Entwicklungsländern zur Verfügung. Inose erwirkte gar zwei Kabinettsentscheidungen, denen zufolge in Japan alle Computer im öffentlichen Bereich OSI zu sprechen hätten. Dem Bildungsministerium riet er, TCP/IP nicht zu unterstützen. Die Internet-Philosophie war ihm technisch und organisatorisch zu chaotisch und entzog sich einer zentralen Kontrolle. So ging der gesamte staatliche Etat für Netzwerkforschung und -Konstruktion an N1 und OSI. Bis heute haben sich erst Teile von OSI stabilisiert. Einer davon ist das Message Handling System, das NACSIS heute benutzt, um einen Email-Dienst anzubieten.

Das N1 war, bei aller Mühe, die seine Errichtung kostete, technisch nicht sehr ambitiös. Japan hatte zwar in den 70ern auf dem Gebiet der Großrechner-Hardware aufgeholt, ein japanischer Heimkehrer aus den USA bemerkte jedoch noch in den 90ern, die Informatiker an der Tokyo Universität befänden sich auf dem Niveau von amerikanischen Studienanfängern. Ein Bewußtsein von der mangelnden Kompetenz und Qualität spricht wiederum gegen offene, kompatible, gar internationale Netzen, in denen die Schwächen sichtbar werden.

Das N1 war als nationales Netz für den Zugriff auf nationale Ressourcen ausgelegt. An eine Erweiterung im Sinne eines internationalen universitären Austausches war nie gedacht worden. Die Perspektive war top-down. Inose setzt auf der Ministerial- und Kabinettsebene an. Das Projekt geht sternförmig von der "Number One" Tokyo Universität aus und läuft zur zweiten in der Hierarchie, der Kyoto Universität, dann zu den anderen ehemals kaiserlichen Universitäten und so weiter.

Aber Informationsströme haben die Neigung, sich grenzenlos auszubreiten und sich dafür Kanäle zu schaffen. Während Japan und übrigens auch Deutschland ihre Insellösungen betrieben und gemeinsam über OSI als dem neuen de jure-Standard debattierten, setzte sich aus den USA der de facto-Standard des Internet durch. Wir werden sehen, daß er wie ein Tsunami über Japan hereinbrach.
 

 

Zweite Szene

Eine Stunden südwestlich von Tokyo. Der Bus fährt durch verschlafenes, ländliches Gebiet. Unvermittelt taucht auf einem Wohnhaus eine drei Meter große Parabolantenne mit dem Logo von WIDE auf, dem "Widely Integrated Distributed Network". Einige Minuten später hält der Bus vor dem Eingang zum Shônan Fujisawa Campus der Keio-Universität. Auch hier herrscht Weitläufigkeit, doch läßt die gemäßigt postmoderne Architektur keinen Zweifel daran, daß dieser Ort ins 21. Jahrhundert ragen soll. An der "Graduate School of Media and Governance" scheint auf jeden Student ein Computer zu kommen. Ein mit ID-Karte und Nummerncode gesicherter Eingang führt in ein geschäftiges Großraumbüro, über dem der Geist von Murai Jun schwebt, der "Vater" des japanischen Internet. Er selbst ist abwesend. Junsec, seine Sekretärin hatte gehofft, mir wenigstens ein Telefoninterview vermitteln zu können, doch selbst das war nicht möglich.
 

Zweiter Aufzug: Mailboxen und Internet
1984, das für Japan ein ganz un-Orwellianisches Jahr werden sollte, startet der Vorläufer des heutigen Internet sowie die ersten Bulletin Board Systems (BBSe, in Deutschland als Mailboxen bezeichnet). TWICS entstand aus der Tokyoter Ausländer-Szene, und ein Jahr später wurde COARA gegründet -- of all places in der Präfektur Oita auf Kyûshû. Die Geschichte der beiden BBSe wird von Howard Rheingold in seinem "Virtual Communities" (Rheingold 1993) nacherzählt.

Ebenfalls 1984 macht Murai Jun, Jahrgang 1955, seinen Ph.D. in Ingenieurwissenschaften an der Keio Universität und wird Forschungsassistent am Tokyo Institut of Technology (TIT). Drei Jahre zuvor hatte Haruhisa Ishida, ein weiterer Internet-Protagonist an der Tokyo Universität, die erste Kopie von UNIX, die er für zehn Dollar in den USA erwarb, nach Japan mitgebracht. Der Quellcode und die Lizenz waren offen und es wurde eifrig studiert. Für die jungen Hacker war UNIX das "coolste" auf der Szene.

In den Gremien jedoch debattierte man ausschließlich über OSI. "Ich war jung, und das war langweilig," sagte der damals 28-jährige Murai (Malamud 1993). Auf seinem neuen Posten machte er sich sogleich daran, mithilfe des UUCP-Protokolls (UNIX-to-UNIX Copy) und zweckentfremdeter Telefonleitungen die erste experimentelle Verbindung zwischen der Tokyo Universität, dem TIT und der Keio aufzubauen. Die staatliche Telefongesellschaft untersagte damals noch, "fremde Geräte", z.B. Modems, auf ihren Leitungen zu verwenden. Erst mit der Privatisierung von NTT im April 1985 wurde dies zulässig. Murai berichtet jedoch augenzwinkernd, daß "in Wirklichkeit" sein Experiment bereits ein halbes Jahr zuvor begann (Murai 1995: 138). Sein Alter allein war schon ein Affront gegen das Senioritätsprinzip. Außerdem stützte sich der bärig-gemütliche Jeans-Träger Murai dabei nicht auf institutionelle Autorität, sondern auf ein soziales Peergroup-Netzwerk. Diesen ersten Internet-Vorläufer nannte er JUNet, was offiziell für "Japan Unix Network" steht, aber als "Ji-yû-Net" gesprochen in nicht unbeabsichtigter Doppeldeutigkeit auch "Freenet" meint.

JUNet wurde gegen alle institutionellen Widerstände in Universitätsbürokratien und Ministerien ein sofortiger Erfolg. Weitere Universitäten und industrielle Forschungslabors schlossen sich an. 1985 legte JUNet die ersten internationalen Verbindungen nach Amsterdam und Washington, DC. Während die offiziellen Ausschüsse noch über OSI debattierten, hatte das JUNet bereits einige hundert Knoten eingerichtet. "JUNet war möglich," schreibt Ishida, "weil es sich nicht auf staatliche Etats stützte und vollständig auf Freiwilligenbasis betrieben wurde. Daher war es ein inoffizielles Netzwerk ohne staatliche Anerkennung." (Ishida 1992)

Murai stieß am TIT bald an Grenzen des Machbaren. Bei den Versuchen, sein Netz auf eine finanziell solidere Basis zu stellen und es auf TCP/IP umzurüsten, schauten die Verwaltung und seine Kollegen nach Präzedenzfällen an der Tokyo Universität und gingen kein Wagnis ein, wenn es die nicht gab. Murai begriff, daß er selbst an die Tokyo Universität wechseln mußte, wenn er etwas verändern wollte. Das tat er 1987.

Doch auch hier ließen die Vorschriften für staatliche Universitäten, die besonderen Vorschriften für die Tokyo Universität und die für Beamte wenig Spielraum. Vor allem gibt es keine Möglichkeit, an staatlichen Unis Drittmittel zu akquirieren, die notwendig waren, um die Standleitungen, und die Arbeit von Programmierern und Studenten bezahlen zu können. Das 1988 aus dem JUNet hervorgegangen WIDE (Widely Integrated Distributed Network), das TCP/IP und Standleitungen verwendete, mußte somit an der privaten Keio-Universität angesiedelt werden. Ab 1989 verband eine Leitung nach Hawaii das WIDE mit dem globalen Internet. Schließlich wechselt Murai 1990 selbst an die Keio, wo er bis heute Assistenzprofessor an der Fakultät für Umweltinformation ist.

Offiziell ein Forschungsprojekt finanziert das WIDE sich über Mitgliedsbeiträge der heute etwa 120 angeschlossenen privaten und Universitätslabors und durch Spenden solcher Unternehmen wie Sony oder Canon. Staatliche Unterstützung gab es, wie gesagt, nur für N1 und OSI. "Ich weiß nicht," sagte mir Murai in einem Interview im August 1995, "wie lange ich diese Situation noch aufrecht erhalten kann, aber ich glaube, solange wir neue Dienste entwickeln, werden Unternehmen bereit sein, Geld hineinzustecken."
 

Kommunikations- und Interaktionskultur
Als JUNet begann, konnte darüber, wie im N1, nur Englisch und Katakana geschrieben werden. Eine der ersten Aufgaben war die Implementierung von Kanji-Unterstützung für das Betriebssystem UNIX, für Programmiersprachen und für Email und NetNews (Malamud 1993: 45f.). Auch in den USA gab es damals Bestrebungen, den ASCII-Standard um andere Länderzeichensätze zu erweitern. In internationalen Mailinglisten wurde darüber diskutiert, und schließlich wählte die Gruppe um Murai den internationalsten der inzwischen drei verfügbaren Kanji-Code-Standards, der mit seinen zwei Byte aus je sieben Bit durch alle internationalen Netze paßt (JIS X0202, der ISO 2022 entspricht). Während Computernetze bis dahin nur eine Art Fernbedienung für Großrechner darstellten, wurden sie jetzt zu einer Kommunikationsumgebung.

Sehr schnell entstand um das JUNet eine Kultur des sharing spirit. So schuf z.B. ein Student alleine einen Font-Satz aus mehr als 6000 Zeichen und stellte sie der UNIX-Gemeinde zur freien Verfügung (Murai 1995: 145). Freeware ist ein wichtiger Indikator für den Austausch innerhalb einer Hacker-Kultur. Bei Japan ist hier an die von PC Magazine preisgekrönte Kompressions-Software LHA von Yoshizaki Haruyasu zu denken, oder an den Proxy-Server Delegate, der die verschiedenen japanischen Zeichen-Codes ineinander übersetzt. Allein wird diese in einem offenen Austauschprozeß gemeinschaftlich entwickelte Software hier nicht als "public domain" bezeichnet. In Japan ist der Begriff "öffentlich" eng assoziiert mit "staatlich". Software oder Datenbanken, die mit öffentlichen Geldern z.B. an Universitäten entstanden sind, dürfen legalerweise nur von Regierungsbediensteten benutzt werden. Diese Vorschrift wurde von der Internet-Community erfolgreich unterlaufen.

Die Zahl der Teilnehmer und das Volumen des Netzverkehrs nahm dramatisch zu, seit JUNet Kanji-Unterstützung anbot -- ein deutlicher Hinweis darauf, daß die wichtigste Nutzungsform von Datennetzen bereits nicht mehr numerisch-rechnender, sondern textueller Natur war.

Das wichtigste Element bei der Herausbildung eines Community-Geistes waren sicherlich die japanischen Newsgroups, von denen es einige hundert in der Hierarchie fj.* ("from Japan") gibt. Die Art, wie hier Menschen in Beziehung treten, bedurfte jedoch einiger Gewöhnung. Früher war schriftliche Kommunikation entweder sehr förmlich, voller unpersönlicher Floskeln, z.B. in Geschäftsbriefen, oder privat und entsprechend individuell. Niemand außer professionellen Schreibern war es gewohnt, bestimmte Öffentlichkeiten zu adressieren, wie dies in Newsgroups der Fall ist. Viele Beiträge begannen mit einer Selbstvorstellung, der dann nichts mehr folgte. Ein verkürzter, telegraphischer Stil bildete sich aus, und die japanische Variante der Smilies kam auf, die nicht, wie westliche um 90 Grad gedreht, sondern horizontal zu betrachten sind: (^_^)

Noch wußten nicht viele außerhalb der Informatik vom Internet, und diejenigen z.B. in der BBS-Welt, die davon gehört hatten, hielten es für ein technisch aufwendiges, schwierig zu bedienendes Spezialisten-Netz. Aizu Izumi, der sich seit Mitte der 80er für BBSe, vor allem für COARA, engagiert hatte, war dieser Ansicht. Im Juni 1992 fand dann in Kobe die erste Inet-Konferenz der frisch gegründeten internationalen Internet Society statt. Aizu hatte eine technische Konferenz erwartet, aber war überrascht über die große Zahl der Beteiligten aus Entwicklungsländern. Sie sprachen nicht über Router und UNIX, sondern über Landwirtschaftsprobleme und Gesundheitsversorgung und darüber, daß das Internet der billigste und effizienteste Weg sei, Wissen aus den entwickelten Ländern zu bekommen. Aizu begriff hier, daß die Community-Funktion der BBSe auf das globale Internet übergehen wird.
 

SINET
Auch NACSIS war inzwischen von der Entwicklung eingeholt worden. 1992 startete ein Großprojekt zum Aufbau eines Bibliothekenverbunds mit einem einheitlichen Katalog. Im Zuge des "Downsizing"-Trends weg von Großrechnern hin zu Minicomputern hatten viele Bibliotheken in den 80er Jahren UNIX-Maschinen angeschafft. Zunächst umging NACSIS das Kompatibilitätsproblem, indem es die UNIX-basierten Internet-Daten für die Übertragung in das N1-Format konvertierte -- eine zeitaufwendige, unökonomische Lösung. Inoses Ziel, das N1 im ganzen Land bereitzustellen, war 1990 bereits erreicht. Daher konnte NACSIS ohne Gesichtsverlust einen 180-Grad-Schwenk vornehmen und einen eigenen Internet-Backbone aufbauen. Das SINET (Science Information Network) nahm 1992 den Betrieb auf. Im Gegensatz zum WIDE wird es voll vom Monbushô finanziert. Die Fronten zwischen der Internet-Welt und NACSIS waren zu dem Zeitpunkt bereits derart verhärtet, daß das SINET nicht über den zentralen Knoten der Tokyo Universität -- Inoses Alma Mater -- angeschlossen werden konnte, sondern auf die Universität Tôhoku ausweichen mußte.

1996 hatte der SINET-Backbone eine Kapazität von 50 Mbps. Dennoch hält Inose an seiner Kritik an der mangelnden Dienstequalität des Internet fest. Für Sprach- oder Bildübertragung sei es ungeeignet: "In Wirklichkeit kann man auf dem Internet nur Email machen."
 

Dritter Aufzug: Von akademischen zu kommerziellen Netzen
In den USA wurde Ende der 80er Jahre der Übergang des Internet von einer staatlich finanzierten zu einer privatwirtschaftlichen Infrastruktur vorbereitet. Die Wissenschaftsbehörde NSF (National Science Foundation) finanzierte und betrieb bis dahin das Internet in den USA und wachte darüber, daß es ausschließlich für akademische Zwecke genutzt wird. Parallel dazu begannen Telekommunikationsunternehmen eigene TCP/IP-Netze für die Unternehmenskommunikation aufzubauen. 1989 schlossen sie sich zum ersten CIX (Commercial Internet eXchange) zusammen. Die Technologie hatte sich so weit stabilisiert, daß die staatliche Unterstützung für das Internet eingestellt und die weitere Entwicklung dem Markt überlassen werden sollte. Universitäten würden in Zukunft das Internet nicht mehr von der NSF frei haus bekommen, sondern statt dessen einen Etat erhalten, um sich ihre Konnektivität bei den kommerziellen Anbietern zu kaufen.

Auch WIDE erhielt immer mehr Anfragen nach einer privaten und kommerziellen Nutzung. Das Monbushô handhabte die Regel über die ausschließlich akademische Nutzung auch für WIDE, das als Forschungsprojekt ebenfalls in seinen Zuständigkeitsbereich fiel, sehr strikt. Wurde aufgrund eines Routingfehlers eine nicht-wissenschaftliche Mail versehentlich über das akademische Netz geschickt, oder bezog sich eine Kommunikation der angeschlossenen Industrielabors nicht ausschließlich auf Forschungsthemen, kam sofort eine Beschwerde wegen Mißbrauchs von Ressourcen. Auch das Gesetz über das Verbot von gleichzeitiger Anbietung von Telekom-Diensten im In- und Ausland, das ursprünglich zur Abgrenzung der Zuständigkeiten von NTT und KDD gedacht war, wurde gegen WIDE und das Internet ausgelegt, die nun einmal inhärent global sind.

Als erster Schritt auf ein privat zu nutzendes Internet formierte sich aus WIDE der Inet-Club. Auf experimenteller Basis mietete die Gruppe Standleitungen an und nutzte die internationale Paketvermittlungsleitungen des KDD-Labors, deren Leiter no Kenji sich für die Internet-Welt als sehr viel kooperativer erwies als die Vertreter von NTT. In seiner nonchalanten Art berichtet Murai in seinem Buch "Das Internet", daß auch diese Zusammenarbeit ganz informell gewesen sei (Murai 1995: 150). Es sei sogar gelungen, kurzfristig auf den Standleitungen von NACSIS huckepack zu fahren. Doch über die Details schweigt er sich aus. (ebd. 154)

Um Privatpersonen und Firmen ganz offiziell Internet-Dienste anbieten zu können, wurde im Dez. 1992 eine Planungsgruppe für die Firma IIJ (Internet Initiative Japan) eingerichtet, die sich sogleich um eine Lizenz des MPT bewarb. Ende 1993 erhielt AT&T Jens, ein Tochterunternehmen des ehemaligen US-Monopols, das in Japan elektronische Netzdienste anbietet, eine solche Lizenz. Es lieferte Internet-Konnektivität an den Ableger des ebenfalls amerikanischen Providers InterCon Systems, an den wiederum TWICS angeschlossen war. Als im September 1993 die ersten kommerziellen Internet-Pakete aus Japan über den Pazifik flossen, war dies somit eine rein amerikanische Angelegenheit.

Der Lizenzantrag von IIJ wurde fast anderthalb Jahre abgeblockt. Bei der Verschleppung der Bewerbung hatte auch IIJ seinen Anteil. Der damalige Präsident Fukase Hiroyuki war Ingenieur und kein Geschäftsmann. Er hielt sich nicht an die japanischen Gepflogenheiten, denen zufolge ein Bittsteller regelmäßig bei Sponsoren und Ministerien vorzusprechen hat. Der damalige Leiter der Datenkommunikations-Sektion im MPT, Chôno Hikaru, der die Lizenz zurückhielt, schien dem Internet gegenüber grundsätzlich positiv eingestellt und darin Möglichkeiten für eine neue Industrie zu sehen. Er und auch einige Investoren wurden aber von Fukases Haltung abgeschreckt.

Eine entscheidende Rolle in diesem Konflikt spielte jedoch Inose von NACSIS. Wie einem alle, die den Prozeß aus der Nähe verfolgt haben, off the record erzählen, benutzte er seinen politischen Einfluß, um Beamte im MITI und MPT persönlich unter Druck zu setzen und ihnen zu drohen, er würde für das Ende ihrer Karriere sorgen. Aizu erinnert sich, daß Ministerialbeamte, mit denen er in der Zeit sprach, Angst vor dieser Macht hinter den Vorhängen hatten. Ein weiterer Schachzug war es, no vom KDD-Lab einzuladen, ans NACSIS zu wechseln. no befürwortete internationale TCP/IP-Netze und stand Murai näher, aber gleichzeitig ist er nicht jemand, der die institutionellen Strukturen in Frage stellt und es mit Inose verderben möchte. Ein wichtiger, institutionell verankerter Befürworter der japanischen Internet-Welt war damit neutralisiert.

Als Motiv wird außer Inoses grundsätzlicher Ablehnung der TCP/IP-Architektur vermutet, daß er auf der strikten Trennung von akademischen und kommerziellen Netzen beharrte. Wenn schon jemand Internet-Dienste anbiete, sollte es NTT sein und nicht WIDE. Schließlich bestand mit der amerikanische Entscheidung, die Netzdienste für die Universitäten zu privatisieren, die Gefahr, daß Japan nachziehen und NACSIS einen Teil seiner Rechtfertigung verlieren könnte. Ausgerechnet IIJ könnte dann einer derjenigen werden, die Universitäten mit Internet-Diensten versorgen.

Zunächst geht es bei diesem Konflikt zwischen Inose und Murai, zwischen Internet und OSI also um unterschiedliche technische Auffassungen, Perspektiven, Interessen und Überzeugungen. Problematisch daran war jedoch, daß Inose den Streit nicht offenen und fair austrug. Er hat sich nie in der Öffentlichkeit zu der Frage geäußert, sondern Fäden im Hintergrund gezogen und eine technologiepolitische Auseinandersetzung auf einer sehr persönlichen Ebene geführt.
 

Vierter Aufzug: Der Gore-Schock
US-Präsident Clinton und Vize Al Gore gaben im Februar 1993 unmittelbar nach ihrem Amtsantritt auf einem Town Meeting in Silicon Valley eine Erklärung über ihre Technologiepolitik ab, in der das Internet bereits eine zentrale Rolle spielte. Damit lösten sie eine Art Vorbeben in Japan aus. Die eigentliche Schockwelle kam am 15.September des Jahres, als Al Gore die "National Information Infrastructure Agenda for Action" verkündete, in der er Netzwerke nicht nur selbst zu einer Multi-Milliarden-Dollar-Industrie, sondern zu einer Grundlageninfrastruktur für Wirtschaft, Bildung, Wissenschaft und Kultur erklärte.

Wieder fand sich Japan, das sich während der "Seifenblasen-Wirtschaft" der 80er Jahre bereits als Number One gewähnt hatte, auf eine Aufholposition zurückgeworfen. Nach der geplatzten "Seifenblasen-Wirtschaft" war das "neue soziale Kapital" (shin shakai shihon) zum zentralen Konzept für die Ankurbelung der Wirtschaft erklärt worden. Der Schwerpunkt der Wirtschaftsförderungspolitik verschob sich von öffentlichen Bauprojekten hin zu neuen Technologien, Multimedia, Software und Telekommunikation.

Doch von diesem "Internet" hatte man in Nagatchô noch nichts gehört, und auch in der Chefetage von NTT konnte es den Politikern niemand erklären. NTTs Pläne richteten sich seit Mitte der 80er Jahre vor allem auf ISDN und die Nachfolgegeneration von Breitband-ISDN. Dabei war die Großvision, bis Anfang des Jahrtausends eine FTTH-Struktur (Fiber-to-the-home, Glasfaserkabel für die Teilnehmerleitungen) zu schaffen, immer umstritten. Es ist auch heute noch unsicher, ob Videoconferencing, Video-on-Demand oder Online-Shopping, die anvisierten Hauptgebrauchsweisen, eine solche Megabit-Bandbreite wirklich rentabel ausschöpfen würden, zumal Entwicklungen in der Kompressionstechnologie solche Dienste auch über das vorhandene Kupferkabelnetz möglich machen könnten.

Ironischerweise verwendeten seit der Verbreitung von Workstations NTT-Ingenieure hausintern bereits TCP/IP. Doch da es innerhalb von NTT, wie bei allen japanischen Unternehmen, eine strikte Trennung zwischen den technischen Sektionen und den Wirtschafts-, Marketing- und Rechtsabteilungen (rigakkei und bunkakei) gibt, wurde davon nichts an die Entscheidungsträger kommuniziert.

Der Gore-Schock löste hektische Aktivitäten aus. Kommissionen wurden in die USA entsandt, die heimische Technologiebasis inventarisiert. Das Ergebnis: Japan liege mindestens fünf Jahre hinter den USA zurück. Gleichzeitig hypten die Medien den neuen Trend zu ungeheuren Dimensionen auf. Das Internet war im folgende Jahr täglich auf den Titelseiten der Tagezeitungen.

Viele Japaner waren natürlich begierig, online zu gehen, nur gab es ironischerweise außer dem kleinen BBS TWICS keine Internet-Provider. Dann erschien im Februar 1994 ein Artikel von Bob Johnstone über den "kulturellen Frontalzusammenstoß" zwischen Inose und IIJ in der amerikanischen Cyberspace-Zeitschrift Wired, der sofort ins Japanische übersetzt wurde und weit zirkulierte (Johnstone 1994). Aizu zufolge verloren Inose und das MPT dadurch an Glaubwürdigkeit. Außerdem zog IIJ Fukase vom Präsidentenposten zurück. Schließlich bekam IIJ die Lizenz im April 1994. Spätestens damit hörte das Internet auf, ein universitärer Tummelplatz zu sein. Die Industrie wird aktiv, nicht zuletzt NTT.
 

Fünfter Aufzug: Das Jahr des Internet und die "Inet Expo"
Die Absätze von PCs stiegen von 1995 auf 1996 um 70%, die meisten werden als Paket mit Modem und Internet-Starter-Kit verkauft. Die Zahl der ISDN-Leitungen stieg um 75%. Die Englisch-Schulen haben Zulauf wie nie zuvor. Die Abonnentenzahl für Online-Dienste stieg im gleichen Jahr um ganze 155% auf 5,73 Millionen. In allen Fällen ist die "Killer-Applikation" dahinter das Internet.

Die Zahl der größeren und kleineren Provider im ganzen Land stieg auf fast eintausend. Die alten Medien Fernsehen, Radio, Tageszeitungen und Zeitschriften präsentieren sich im Web. Zahlreiche private Homepages entstehen. Die Werbeagentur Hakuhd hat als Keyword für 1997 den Begriff "Homepageless" in die Welt gesetzt. Erstmals bei den Unterhauswahlen im Herbst des Jahres wurde Politik auch breit im Netz diskutiert. Unternehmen beginnen, es als Marketingmittel zu benutzen. Mitsubishi und Sharp bieten die ersten Internet-Fernseher an, mit denen der Couch-Potato per Fernbedienung im Web surfen kann.

In Unternehmen werden Intranets zur Mode, wobei erste Umfragen zeigen, daß viele nur auf einen allgemeinen Trend aufspringen, ohne genau zu wissen, wofür sie gut sein werden (Tanya Sienko, am NISTEP der STA im Gespräch, Okt. 96). Die Kommunikation in Unternehmen verläuft hauptsächlich vertikal, entlang der Karrierepfade in denen Protegees herangezogen werden. Erfahrungen mit Intranets deuten darauf hin, daß sie Hierarchien verflachen und daß vor allem das mittlere Management kommunikativ umgangen wird.

Das Venture-Kapital fließt und die Konzerne aus strategischen Industrien paaren sich heftig. Die Internet-Welt spricht von einer neuen Investitions-Seifenblase, was die Befürchtung impliziert, daß sie bald wieder platzen könnte. Modewellen sind in Japan oft intensiv aber extrem kurzlebig. Internet-Zeitschriften wie ASCII's CapeX und Mainichi's Digital Boy sind schon nach wenigen Nummern eingegangen. Als letzten Schritt für die Urbarmachung des Cyberspace bereiten verschiedene Konsortien Kryptographielösungen und Zahlungssysteme vor, die die Basis für den Online-Einzelhandel bilden sollen. Bevor sich die Investitionen auszahlen, werden jedoch nach verbreiteter Einschätzung noch einige Jahre vergehen.

Auch die Reglementierung von Inhalten setzt inzwischen ein. 1996 ging die Polizei gegen eine Reihe von Web-Sites vor, auf denen Pornographie angeboten wurde. Viele der Provider kontrollieren den Inhalt der Seiten auf ihren Servern. Infrastruktur und Nutzerbasis sind vorhanden, doch mangelt es nach weitverbreiteter Ansicht an Content.

1996 sollte das Jahr werden, in dem sich das Netz in dem Medium, das es ist, zur Leistungsschau stellt. Die "Internet Expo" nach dem Vorbild der Weltausstellungen des 19.Jahrhunderts ist in Deutschland kaum zur Kenntnis genommen worden, fand aber in Japan und selbst in der kleinen Internet-Welt Thailands großen Wiederhall. Initiiert wurde sie von Carl Malamud, der sich in seinem "Internet Travelogue" von Murai, Ishida und anderen Protagonisten die Geschichte des japanischen Internet erzählen ließ. Jeder, gleich ob Individuum, Firma oder Institution hatte die Möglichkeit, einen Pavillon zu gestalten und im Rahmen der Expo zu präsentieren. In jedem Land gab es dafür eine Koordinationsstelle. In Japan wurde vor allem Dentsu mit der Durchführung betraut.

Aizu, der in der Anfangsphase im Leitungsausschuß saß, sieht das Hauptproblem darin, daß Dentsu nicht wisse, wie man bottom-up-Events organisiert. NTT stellte einige hundert 128 Kbps-Standleitungen für ein Jahr kostenlos an Individuen und Gruppen zur Verfügung, die interessante Projekte planten. Doch bereits die Verteilung war ein Problem. Aizu bot 10 Leitungen auf einigen Mailinglisten an und hatte innerhalb von drei Tagen über 400 Bewerber. Statt sie zu begutachten, ließ er das Los entscheiden. Doch die anderen Verteiler taten sich schwer. Die Wahl fiel vor allem auf populäre Figuren wie Sakamoto Ryûichi oder das Internet Idoru Chiba Reiko. Ein Verständnis dafür, wie man Katalysator für Graswurzel-Aktivitäten spielt, gäbe es in Japan, beklagt Aizu, kaum. Obgleich es durchaus ein Potential gibt, wie die 400 enthusiastischen Reaktionen auf sein Posting zeigen, blieben individuelle Beteiligungen marginal im Vergleich zu den institutionellen japanischen Pavillons. Die User-Basis blieb unsichtbar und passiv. Sie loggten sich ein, um sich ein Sakamoto-Konzert im Internet anzuschauen, in das sie aber nicht eingreifen konnten. Was ist da, fragt Aizu, der Unterschied zum Fernsehen?
 

Öffnungen und Schließungen
Deleuze/Guattari schreiben: "Baumsysteme sind hierarchisch und enthalten Zentren der Signifikanz und Subjektivierung, Zentralautomaten, die als organisiertes Gedächtnis funktionieren. Das hat zur Folge, daß in den entsprechenden Modellen ein Element Informationen immer nur von einer höheren Einheit erhält und subjektive Wirkungen nur von bereits bestehenden Verbindungen ausgehen können." (Deleuze/Guattari 1977: 27) Das Rhizom dagegen beruht auf dem "Prinzip der Konnexion und der Heterogenität. Jeder beliebige Punkt eines Rhizoms kann und muß mit jedem anderen verbunden werden." (ebd. 11) Das Rhizom "ist einzig und allein durch die Zirkulation der Zustände definiert." (ebd. 35) Eine Baumstruktur kontrolliert ihre Schnittstellen zur Umwelt, ein Rhizom hat viele Eingänge. Die erste verweist auf eine vermeintliche Kompetenz, das zweite auf Performanz.

Inose und Murai bauen beide Netze, technische ebenso wie Netzwerke von Einfluß und Macht. Beide beschäftigen sich mit Informationsflüssen, mit Wechselwirkungen, mit Austauschprozessen. Beide sind mit Institutionen affiliiert, sitzen in Ausschüssen, beraten z.B. NTT.

Die Perspektive ist jedoch jeweils eine grundsätzlich verschiedene. Inose geht von einem Universalitätsanspruch im Referenzrahmen der Nation aus. Die Zentralknoten, von denen aus eine landesweite Struktur entwickelt wird, sind auf einer historisch definierten Landkarte vorgegeben: die sieben kaiserlichen Universitäten, allen voran natürlich die Tokyo Universität, die Machttopographie der Ministerien und die Baumstruktur der Standardsetzung, die sich im Falle von OSI in die internationalen Gremien fortsetzt.

Inoses Philosophie zielt auf saubere, stabile, abrechenbare, sichere, d.h. abschließbare technische Netze. Der Formations- und Entscheidungsprozeß soll in den etablierten, vertikalen, hierarchischen Strukturen von alteingesessenen Interessengruppen verlaufen. Das Netz selber ist Gegenstand, aber kein Forum. Die relevanten Beteiligten haben über ihren jeweiligen institutionellen Zweig die Möglichkeit, Ideen und Vorschläge einzubringen. Die top-Level-Entscheider sollen die Kontrolle behalten und neue Entwicklungen steuern, sich dabei aber paternalistisch am Wohl des Ganzen orientieren. Er führt die Rhetorik der "Fairneß" ins Feld, nimmt sich aber selbst die Freiheit, im Hintergrund auf eine Weise Fäden zu ziehen, die wohl kaum als fair zu bezeichnen ist.

Murai dagegen geht von einer Anschlußfähigkeit in einem globalen Referenzrahmen aus. Seine Philosophie zielt auf lokale Internetzwerke, offene Systeme und globale Konnektivität. Wie jedem Ingenieur geht es auch ihm um stabile Technologie, doch glaubt er nicht daran, daß eine Gruppe von Kommissionsexperten sie beschließen könnte. Der Formierungsprozeß geht vielmehr von technischen ad-hoc-Lösungen aus, die sofort inklusive Quellcode veröffentlicht werden, so daß sie von jedem Interessierten getestet, diskutiert, korrigiert, verbessert und erweitert werden können. Auf diese Weise entsteht eine an die tatsächlichen Anwendungsformen angepaßte Technologie, die sich in einer Vielzahl von Situationen bewiesen hat. Der Diskussionsprozeß in Newsgroups ist offen und horizontal. Das verteilte, dezentrale Netz aus Peers ist hier Gegenstand und Medium zugleich, Nährboden für eine Selbstorganisation von Technologie und von Menschen. Sie werden nicht geplant, sondern emergieren. Der Zeitfaktor spielt in einer sich sehr schnell entwickelnden Technologielandschaft eine entscheidende Rolle, wie der Vergleich der Formierungsprozesse von TCP/IP und OSI zeigt.

Murais Perspektive ist bottom-up, ein Graswurzel-Ansatz. Auch er war an der Tokyo Universität in der Hoffnung, sich von der Spitze der akademischen Pyramide mehr Freiraum verschaffen zu können. Doch nur um festzustellen, daß die Strukturen aus Vorschriften und alteingesessenen Interessensphären nur dann Neues zulassen, wenn ein Druck von höherer Warte oder aus dem Ausland darauf drängt.

An den beiden Beispielen zeigt sich das Gesetz der Hierarchie, demzufolge sich durch jeden weiteren angeschlossenen Knoten die Einflußsphäre des Zentrums erweitert. Dagegen besagt das Gesetz des Rhizoms, daß mit jedem weiteren angeschlossenen Knoten der Wert des Netzes für jeden anderen Knoten wächst.

Dabei handelt es sich natürlich nicht um sich ausschließende Alternativen, sondern um Pole zwischen denen es Gewichtungen, Wechsel und Hybridformen gibt. De Landa warnt davor, Meshworks gegenüber Hierarchien zu idealisieren. Deleuze/Guattari zeigen, daß in den Gabelungen von Bäumen Rhizome wachsen, und an Punkten des Rhizoms "Vermassung, Bürokratisierung, leadership und Faschisierung" auftreten können (ebd. 25). Offene und geschlossene Systeme wechseln sich auf verschiedenen Beschreibungs- und Handlungsebenen ab, sie benötigen einander, gehen aus einander hervor.

Die aktuelle Medienentwicklung bewirkt eine globale Homogenisierung. Sie transponiert alle anderen Medienformate in einen binären Code und sie zwingt alle Mediennutzer vor Bildschirm und Tastatur (vgl. Grassmuck 1997). Zugleich bewirkt sie auf einer anderen Beschreibungsebene die Heterogenität der Stimmen, die medial sprechen und gehört werden können. Die Offenheit der Kommunikationsstrukturen erzeugt zugleich eine panoptische Sichtbarkeit, von der die Disziplinargesellschaft (Foucault) nur träumen konnte. Auch die Mikromacht der Kontrollgesellschaft (Deleuze) organisiert sich radikal dezentral und nomadisch.

Bei aller Ambivalenz markieren die hier aufgezeigten Pole eine Matrix, auf der weiterhin Fragen zu stellen sind, wie Zirkulationen sich mit anderen verschalten; welchen Formatierungen und Transformationen, welchen Synkretismen und Mißverständnissen die Zirkularien unterliegen; ob das Internet zu einer informationellen "Öffnung" Japans beiträgt oder in die Trajektorien der kulturalistischen Selbstbestimmung eingeholt wird; ob es horizontale Vernetzung in einer vertikalen Gesellschaft fördert oder sich zum Fernsehen auf neuer technischer Stufe entwickelt; welche Ein- und Ausschließungen vorgenommen werden, wo Anschlüsse und Zirkulationen erzwungen und wo sie verweigert, blockiert oder unterlaufen werden.



 
 

Literatur

Hayashi Yûjirô, Jôhôka Shakai: Hâdo na Shakai Kara Sofuto na Shakai e (Die Informationsgesellschaft: von der 'harten' Gesellschaft zur 'weichen' Gesellschaft), Tokyo, Kodansha, 1969

Kaminuma Tsuguchika (Leiter der Abt. für Chemo-Biologische Informatik des National Institute of Health Sciences), Will the Internet Change Conventional Uninformative Japan?, Vortrag auf dem Symposium "Cyberjapan: Technology, Policy & Society", Japan Documentation Center der US-Library of Congress, 31.Mai 1996, http://www.mnjc.org/jiap/jdc/cyberjapan/kaminuma.html

Maeno Kazuhisa (Professor für soziale und Informationsstudien an der Gunma Universität), Multimedia Society and Japan, in: Japan Foundation Newsletter, March 1996

Gilles Deleuze, Félix Guattari, Rhizom, Merve, Berlin 1977

Manuel De Landa, Meshworks, Hierarchies and Interfaces, o.J., http://www.t0.or.at/delanda/meshwork.htm

Bob Johnstone, Wiring Japan, in: Wired, 2/1994, S.38-42

Hans Dieter Hellige, Militärische Einflüsse auf Leitbilder, Lösungsmuster und Entwicklungsrichtungen der Computerkommunikation, in: Technikgeschichte Bd. 59 (1992) Nr.4, S.371-401

Steven Levy, Hackers. Heroes of the Computer Revolution, Delta, New York, 1994

Inose, Hiroshi, Development of an inter-university computer network, in: H.Inose (ed.) Scientific Information Systems in Japan, North Holland, Amsterdam, N.Y., Oxford, 1981, S.25-31

Sh.Asano, H.Inose, T.Sakai, M.Kato, Networking for Inter-University Computer Centers in Japan, in: H.Inose (ed.), JARTEC Vol.9, Telecommunications Technologies 1993, North Holland, Amsterdam, N.Y. 1993, S. 171-180

Rheingold, Howard, The Virtual Community. Homesteading on the Electronic Frontier, Reading, Mass. etc. 1993, Addison-Wesley

Malamud, Carl, Exploring the Internet. A Technical Travelogue, London, Sidney, Toronto et.al, Prentice Hall, 1993

Murai Jun, Internet, Iwanami Shinshô, Tokyo 1995

Ishida, Haruhisa (ishida@u-tokyo.ac.jp), Computer Centre, University of Tokyo, Academic Internetworking in Japan, Kahaner Report, ftp.cs.arizona.edu/japan/kahaner.reports/japan.net, 16 July 1992

Volker Grassmuck, Die japanische Schrift und ihre Digitalisierung, in: Intervalle II, Kassel 1997


Besonderer Dank für Unterstützung bei der Recherche gehen an Ando Kôji, Chris Webers und Aizu Izumi.