Dies ist ein Vorabdruck des Manuskripts eines Vortrags an der Freien Universität Berlin am 12. Dezember 96. Er ist nicht abschließend korrekturgelesen. Sowohl Inhalt wie Schreibweise mögen sich noch ändern. Zum Zitieren gilt die gedruckte Fassung.

© Das Copyright liegt beim Verfasser.


Media Control
Wer kontrolliert das Internet?

Wolfgang Coy


Inhalt


0. Einleitung

Neue Techniken stoßen im allgemeinen nicht auf einen rechts- und regelfreien Raum, wenngleich sie neue Interpretationen oder auch Veränderungen, Anpassungen und Neufassungen der bestehenden Regeln erfordern. Das Internet ist unter militärischer Vorgabe im akademischen Raum entstanden: Offene Rechnernetze, die durch eine gemeinsame Protokollsuite verbunden sind, vor allem durch das TCP/IP Protokoll. Ziel dieses asynchronen, datenpaketvermittelten Dienstes ist es, auch unter starken Störungen eine korrekt arbeitenden Datenverbindung zwischen zwei beliebigen Knotenrechnern aufrecht zu erhalten. Paul Baran, einer der geistigen Väter dieses Netzwerktyps betonte in seiner Grundsatzstudie 1962 ,,that highly survivable system structures can be built, even in the thermonuclear era." Solche Netze wurden versuchsweise im Rahmen eines vom Pentagon finanzierten Forschungsverbundes im ARPA-Net realisiert. 1973 schrieben Vinton Cerf und Robert E. Kahn die Software für den ersten Netzwerk-Gateway, die Verknüpfung zweier Netze durch ein Umsetzerprotokoll, einem Internetting Programm.

Aus diesen Arbeiten entstand 1982 die Internet-Protokoll-Suite TCP/IP, das Transmission Control Program/Internet Protocol. 1983 wurde das zivilitäre Internet vom militärischen MILNET abgespalten. Was 1969 mit der Vernetzung von vier Rechnern begann, führte zu einem globalen offenen Rechnernetz mit heute (1996) über einer Million angeschlossener Rechner mit gut hunderttausend Subnetzen. Der Anfangserfolg des Internets läßt sich neben der offensichtlichen Nachfrage nach seinen Dienstleistungen E-mail, Dateifernzugriff (File Transfer) und Datenfernverarbeitung (remote login) durch drei ökonomische, oder gerade nicht-ökonomische, Faktoren erklären:

In den Achtzigern kommen die enormen Kostensenkungen bei den Endknoten, PCs und den Modems zur Datenübertragung hinzu. Seinen eigentlichen Durchbruch erlebte das Internet Anfang der Neunziger Jahre durch Dienste wie das World Wide Web , Gopher und WAIS .

Damit ist es erkennbar zu einem eigenständigen digitalen Medium geworden, das die unterschiedlichsten Medienformen, vom Brief- und Postnetze über Bibliothek und Archiv, Telefon, Schallarchiv, Rundfunk, Videophon und digitalem Fernsehen simuliert und neue, interaktive Medienformen bis hin zur ortsverteilten Begegnung in virtuellen Räumen ermöglicht. Da dies vorwiegend in akademischen Laboren geschah und geschieht, mag der Eindruck entstehen, das Internet sei vergleichbar mit einem weltweiten selbstverwalteten Jugendzentrum. Dem ist nicht so! Das Netz wird wie andere technische Großeinrichtungen vielfältig reguliert und kontrolliert. Es handelt sich jedoch um eine globale Struktur und um eine mediale Struktur. In beiden Aspekten greifen viele der herkömmlichen Ordnungsvorstellungen nicht mehr, so daß ein erheblicher Regelungs- und Abstimmungsbedarf erkennbar wird. Es geht um


1. Technische Kontrolle

Die technische Kontrolle beginnt mit der Frage der Protokollvereinbarungen und vor allem ihrer Änderungen und Anpassungen, mit denen die aktuelle und künftige Nutzung des Netzes bestimmt wird. Die technische Regelung der Protokollfragen folgt bislang weitgehend akademischen Regelungen bzw. den Gepflogenheiten der internationalen Normungsausschüsse. Im Internet ist dies vor allem die Internet Engineering Task Force , die sich in regelmäßigen internationalen, wenngleich US-amerikanisch dominierten Treffen zur Weiterentwicklung der Protokolle und Verfahren trifft. Vorbereitet werden dies Treffen in Diskussionsgruppen, die sich im Netz austauschen. Der Normungsprozeß beginnt informell und schlägt sich nach der Beratung in der IETF in einem request for comment RFC nieder. Aus diesen RFCs werden mit der Zeit und nach hinreichender Diskussion Vereinbarungen.

Zu den derzeit renovierungsbedürftigen Fragen der Internet-Normen zählt die Adreßvergabe an die angeschlossenen Rechner. Das 1973/74 verabschiedete Internet-Protokoll IPv4 ging von einer Maximalzahl von 256 Subnetzen im Internet aus, bei damals etwa 50 angeschlossenen Rechnern. Derzeit sind über eine Million Subnetze dem Internet angeschlossen, eine Zahl, die sich seit einem Jahrzehnt jährlich in etwa verdoppelt. Um diese zu verwalten, wurden die anfänglich gedachten 256 Hauptadressen durch Unteradressen ergänzt. Heute besteht eine Internet-Adresse aus vier maximal dreistelligen Zahlen, die jeweils zwischen 0 und 255 liegen. also zum Beispiel 141.221.112.103. Genutzt werden also 32 bit pro Adresse. Seit 1992 wurden in verschiedenen working groups neue Adreßschemata vorgestellt. Im Juli 1994 schlug die Internet Engineering Task Force eine Empfehlung für das next generation protocol vor, das im November des gleichen Jahren zum proposed standard wurde. Im Dezember 1995 wurde es unter dem Namen IPv6 als Bündel von RFCs verabschiedet.

Im Falle der Adreßschemaänderung ist die Kompatibilität mit den eingeführten Adressen von höchster Wichtigkeit. Ziel ist es, eine hinreichende Zahl möglicher Adressen zur Verfügung zu stellen und gleichzeitig die Verfahren zur Adreßbearbeitung beim Versenden von Nachrichten über eine lange Zeit so effizient wie möglich zu gestalten. Das Adreßwachstum wird eher noch zunehmen, da künftig auch Geräte, die nicht sofort als Rechner identifiziert werden, Internet-Adressen erhalten: Fernsehgeräte, Telefone, Handys , Spielekonsolen, elektronische Notizbücher, aber vielleicht auch Steuerungen und Regler in Fabriken oder Haushalten bis hin zum Lichtschalter. Die ausgedienten 32-bit Adressen des Internets sollen künftig durch 128-bit Adressen ersetzt werden. Hinden rechnet mit diesem neuen Adreßraum des IPv6 vor: ,,By even his most pessimistic estimate, this would provide 1564 adresses for each square meter of the surface of the planet Earth."

Eine andere Ebene der technischen Kontrolle definiert die Dienstleistungen des Netzes, die ja die eigentliche Attraktion ausmachen. Die klassischen Dienste E-mail , remote login (Telnet) und file transfer protocol (ftp) erlauben durch ihre Normierung den weltweiten Umgang mit im Netz gespeichertem Wissen über alle technischen Grenzen der Rechnerarchitektur und der Betriebssysteme hinweg. Anfang der Neunziger wurde eine Reihe weiterer Dienste normiert: Gopher, Wais und www . Damit entstand der kommerzielle Flügel der Dienstleistungen im Netz.

Die Entwicklung des World Wide Web und der zugrunde liegenden Programmiersprache HTML wurde von Tim Berners-Lee und Robert Cailliau im Atomforschungszentrum CERN in Genf begonnen und später von der National Computer Science Agency NCSA übernommen. Dort hat Marc Andreesen den Mosaic Browser entwickelt, Basis und Konkurrent für seine spätere Firma Netscape . Die technische Definitionsrechte für das WWW liegen seit 1994 beim W3 Consortium und der Web Society , beides wissenschaftliche Organisationen. Die faktische Definitionsmacht über HTML liegt bei Netscape und in geringerem Maße Microsoft , da sie über die praktischen Erweiterungen der Programmiersprache des WWW entscheiden. Diese Form der Kommerzialisierung ist bei Programmiersprachen nicht untypisch.


2. Zugänge

Der Zugang zum Internet ist einfach. Voraussetzung ist ein PC, ein Modem, die passende Protokollsoftware und ein Provider , ein Unternehmen, das den Internet-Zugang als Dienstleister durchschaltet. Dies sind sowohl Bedingungen wie Grenzen des Zugangs. Eher stillschweigend wird zudem die Fähigkeit zu lesen, die Fähigkeit, englisch zu lesen, sowie das notwendige technische Wissen über den Umgang mit Computer, Software und Telefonanlage unterstellt. Computer Literacy gilt im Rahmen des Internets als weltweite Kulturtechnik, deren Erwerb in die frühe Jugend zu verlegen ist.

Die Unterstellung ist, daß eine öffentliche Kultur des Umgangs mit den offenen globalen Netzen entsteht. Dies ist innerhalb der Grenzen vieler Nationalstaaten keineswegs selbstverständlich. In Europa und Amerika gibt es eine historische Verbindung zwischen Demokratie und dem Zugang zum Wissen. Francis Bacons Einsicht, daß Wissen Macht bedeuten kann. ist über die Enzyklopädisten und die Aufklärung zum Recht auf Schulbildung, Ausbildung und allgemeiner Bildung geworden. In diesem Kontext sind die öffentlichen Bibliotheken und die ideologische Vorstellung einer freien Presse entstanden. In der Bill of Rights, dem 1st Amendment der amerikanischen Verfassung, wird freedom of information und freedom of the press zum konstitutionellen recht erklärt. Rechte der Denkfreiheit, der Informationsfreiheit und der Meinungsäußerung gehören zu den zentralen Anliegen des Grundgesetzes. Information wird so zum Bürgerrecht und zur Bürgerpflicht.

Dies erfordert nach westlicher Tradition eine aktive Rolle des Staates . Öffentliche Bibliotheken und öffentliche Schulen sollen den freien und gleichen Zugang zum Wissen sichern. Der Anschluß an das Briefnetz der Post, das Recht auf Beförderung der Post oder der Anschluß an das Telefonnetz darf nicht verweigert werden. Die Kosten dieses Zugangs dürfen nicht zu einer unüberwindlichen Schranke solcher Rechte werden. Ihre Ausübung muß freilich auch nicht kostenlos und auch nicht unreguliert sein. Hier besteht ein politischer Spielraum zur Gestaltung des Rechts auf Teilhabe.

Das Internet wurde aus seine militärisch-akademische Geburt heraus bis heute in wesentlichen Teilen öffentlich finanziert. Dies legt eine politische Formulierung des freien Zugangs als öffentlich-rechtliche Aufgabe nahe. Tatsächlich treten Universitäten häufig als Provider auf, die den einfachen Zugang zum Internet über Modems ermöglichen. Nahezu alle Studierenden haben die Möglichkeit eines Internet-Zugangs über universitäre Rechner oder über Telefonmodems. In Deutschland bieten private, aber auch öffentlich-rechtliche Provider wie der DFN-Verein, Träger des Deutschen Forschungsnetzes diesen Zugang gegen relativ geringe Gebühren an. Btx, das Online-System der einst öffentlich-rechtlichen Telekom, ist heute unter dem Namen T-Online der größte deutsche Diensteprovider mit Internet- Ankoppelung. Einzelne Kommunen bieten über diesen freien, aber kostenpflichtigen Zugang in ihren öffentlichen Büchereien, aber auch in anderen Einrichtungen wie Bürgerhäusern und Jugendzentren öffentliche, kostenlose Zugänge zum globalen Netz an. Parallel dazu ist eine vielfältige kommerzielle Providerszene entstanden, von den international agierenden Riesen CompuServe und America Online bis zu lokalen Anbietern, die ihr Hobby zum Beruf gemacht haben. Sowohl in den USA wie in Europa gibt es Versuche, die Netzdienste, die bislang eng mit dem Telefonnetz verbunden sind, in die Fernsehkabelnetze zu verlegen oder sie als Satellitendienste anzubieten. Dies spiegelt die Tendenz des Netzes wieder, alle Medienformen zu simulieren und letztlich das Fernsehen als Leitmedium zu ergänzen und zu ersetzen.

Doch trotz dieser massenmedialen Ausprägungen des Netzzugangs ist der Zugang zum Netz derzeit auf engste mit dem Besitz eines Telefonanschlusses verbunden. Die technische Leistung des im Internet verwendeten TCP/IP Protokolls, das auf der Vermittlung von Datenpaketen beruht, liegt darin, daß die Nutzungskosten des Netzes im wesentlichen als Ortsgesprächsgebühren anfallen. Die Bundespost und ihr Rechtsnachfolger Telekom glaubten die Zeichen der Zeit richtig verstanden zu haben, indem sie im Hinblick auf wachsende rechnergestützte Netznutzung die Ortsgebühren in den letzten Jahren unmäßig erhöhten - von 23 Pfg pro Anruf mit unbeschränkter Dauer auf 24 Pfg für 2 Minuten. Dies ist nicht die einzig mögliche Form des Telefonbetriebes: In anderen Ländern, z.B. den USA sind Ortsgespräche in vielen Gemeinden kostenlos, ohne daß die Telefongesellschaften Not leiden.

An anderer Stelle wurde das Internet weltweit gebührenpflichtig gemacht. Die Registrierung von Domain Names , die früher zum Selbstkostenpreis erfolgte, kostet nun jedes Jahr gut 1000 DM; für Non-Profit Organisationen und Individuen eine harte finanzielle Belastung - während kommerzielle Nutzer dadurch kaum belastet werden. Sieht man das Internet als globales Netz, so stoßen die Begründungen des öffentlichen und öffentlich-rechtlichen Zugangs als Teil der politischen Kultur schnell an ihre Grenzen. Es geht nicht nur um die faktische Beschränkung des Zugangs zum Telefonnetz, die in weiten Teilen der Welt aus technischen wie aus ökonomischen eine erhebliche Last darstellt.

Die Idee eines uneingeschränkten, freien Zugangs zum Wissen ist keine globale Strategie. Die meisten Länder verbinden mit ihrer Ausprägung des Rechtes auf Bildung eine mehr oder minder starke Kontrolle der zugänglichen Inhalte. Es geht also um die politische und rechtliche Kontrolle des Zugangs zu Informationen als Zensur- und Erziehungsmaßnahme.


3. Ökonomische Kontrolle

Doch auch die ökonomische Basis des Internet-Zugangs regelt sich nicht von selbst. Voraussetzung des Zugangs sind geeignete Hard- und Software, also Rechner, Modem und Programme. Die Industrie hat in den letzten Jahren mehrere hundert Millionen PCs verkauft, die alle eine geeignete Basis für den Netzzugang bilden. Ihre Anschaffungspreise sind dennoch kein selbstverständlicher Teil des verfügbaren Budgets der Mehrheit der Weltbevölkerung. Die Computerkonzerne erkennen diese Beschränkung ihres Marktes. Immer billigere Geräte werden nachgereicht und derzeit ist die Konstruktion von Netzzugangsgeräten von spezielle Netzrechnern hin bis zu Internetfähigen Telefonen und Handys ein Diskussionsthema in der Geräteindustrie. Ziel ist es es, Computer wie Fernsehgeräte zu verkaufen - allerdings viel öfter, da ein normales Fernsehgerät nach über zehn Jahren ersetzt wird, ein Computer aber schon nach drei Jahren als veraltet gilt.

Neben den Fixkosten der Anschaffung, die durch geschickte Versionsverwaltung der Software mehr und mehr zu laufenden Kosten für die Updates werden, schlagen die laufenden Zugangskosten zu Buche, also die Kosten für den Telefonanschluß und die Kosten für den Internet-Diensteprovider, wie z. B. AOL, CompuServe, T-Online oder künftig die Kabelanbieter. Hier sind wie bei den Anschaffungskosten die laufenden Kosten am Einkommen des Mittelstandes in gesicherter Anstellung orientiert. Diese Preise wirken bereits in vielen europäischen Ländern im Osten und Süden, wo selbst wissenschaftliche Institute den Internetzugang nur mühsam finanzieren können, als extreme Einschränkung; für große Teile der Welt kommen die Basiskosten des Internets bis auf weiteres einem faktischen Ausschluß gleich.

Die Vorstellung des Internets als eines beliebig vernetzten Mediums, das eine Katastrophe wie eine Atombombenexplosion überleben kann, übersieht schnell, daß das Internet sich vom herkömmlichen Telefon nur durch das Protokoll und die Art der Übermittlung, eben eine Paketvermittlung über viele, wechselnde Zwischenstationen statt einer Leitungsvermittlung zwischen den beiden Teilnehmern unterscheidet.

Die physikalische Vermittlungschicht ist bei beiden gleich, nämlich das Telefonnetz. Die Kontrolle über die Telefonkabel ist gleichzeitig die Kontrolle über das Internet. innerhalb der Industrieländer ist das Telefonnetz im allgemeine sehr dicht, so daß bemerkbare Ausfälle sehr selten sind. Sie kommen aber gelegentlich vor. Hier wirken sich Behinderungen heftiger auf die leitungsvermittelte Sprachübertragung als auf die paketvermittelte Datenübertragung aus.

Anders stellt sich die Situation zwischen einzelnen Ländern und vor allem bei den transozeanischen Seekabeln und Satelliten dar. Diese bilden aus der Sicht des Netzes extreme Flaschenhälse. Zwischen Europa und den USA können derzeit maximal 200 000 Leitungen gleichzeitig geschaltet werden, zwischen Europa und Ostasien sind dies maximal 20 000 Leitungen. rechnet man pro Leitung im Glasfaserkabel eine erreichbare Sprachübertragungsrate von 64 Kb/s, also ISDN-Qualität, so beträgt die maximale Informationsflußrate zwischen Europa und den USA 13 Gb/s, von Europa nach Indien, Südostasien, China und Japan gerade mal 1,3 Gb/s. Das entspricht der Übertragungsrate von tausend CD-Spielern oder im Falle des Transatlantikverkehrs der Übertragungsrate von tausend CD-ROM-Geräten neuester Bauart mit zehnfacher Geschwindigkeit - nicht viel bei weltweit etwa einer Milliarde Telefonanschlüssen und einigen Zig Mio. Internet-Rechnern.

Bei den derzeitigen Verhandlungen um eine neue Ethernet-Norm, also der Norm für in house Computernetze, wie sie in praktisch allen Universitäten eingesetzt werden, soll eine Übertragungsrate von 1 Gb/s festgelegt werden - das entspricht in etwa der gesamten Leitungskapazität, mit der Europa mit Indien, Südostasien, China und Japan verbunden ist. Daß eine solche Struktur extrem verwundbar ist und damit ebenso leicht kontrollierbar ist, muß nicht weiter betont werden. Natürlich werden die Kapazitäten der Telefonleitungen erweitert - glücklicherweise auch unter einer gewissen Konkurrenz, die sich allerdings auf sehr wenige potente Konglomerate aus AT&T, France Telecom, Sprint, British Telecom und eher randständig der deutschen Telekom beschränkt. Doch Planung und Bau eines internationalen Seekabels dauert fast ein Jahrzehnt. Und es gibt derzeit kein Seekabel, das sich an den Erfordernissen des in den letzten fünf Jahren entstandenen Internets ausrichtet. Es sind allesamt klassische Telefonkabel, auch wenn sie in hochmoderner digitaler Glasfasertechnik aufgebaut sind.

Die Telefonkonzerne sind also die eigentlichen Herren über den globalen Datenverkehr. Sie treten glücklicherweise bisher eher still auf. Dies mag eine Folge ihrer Vergangenheit sein. Schließlich war es eines der vornehmsten Ziele des Weltpostvereins, den Briefverkehr ohne Ansehen des Inhalts zwischen kriegsführenden Ländern aufrecht zu erhalten. Die Telefonkonzerne zeigen in ihren internationalen Verflechtungen bislang eine ähnlich wirksame Neutralität gegenüber den im Internet transportierten Inhalten und die Regulierungs- und Kontrollversuche einzelner Regierungen greifen die schwächeren Provider und deren Zwischenspeicher oder die Nutzer an.

Neben seiner militärisch-akademischen Geburt hat die inhaltliche Zurückhaltung der Telekoms die Vorstellung gestärkt, das Internet sei kein kommerzielles Unternehmen. Seine Positionierung als globale Informationsinfrastruktur läßt eine solche Interpretation nicht mehr zu. Die US-Regierung und in ihrem Gefolge die G7-Gruppe und die EU haben die Kommerzialisierung des Netzes als Bedingung der kommenden Informationsgesellchaft identifiziert. Die Medienkonzerne, die Werbeindustrie, die Printmedien, Hollywood und die TV-Produzenten haben die Zeichen der Zeit verstanden und versuchen mit unterschiedlichem Geschick das neue Medium Internet in Besitz zu nehmen - bis hin zu Funk- und Fernsehsendungen, die im Netz verteilt werden und dem umgekehrten Angebot, Internet- Dienste über Fersehkabel statt Telefon zu nutzen.

Ziel dieser Aktionen sind derzeit vor allem Dienstleistungsangebote im Heim der vernetzten Kunden: Bankgeschäfte, Dienstleistungen von Reisbüros oder Verkauf von Waren, typischerweise auf die derzeitige jugendliche Klientel zugeschnitten Bücher, Platten und elektronische Spielzeuge aller Art, aber auch Aktien, Versicherungen oder Immobilienangebote. Das Netz dient vor allem als ungeheurer Warenkatalog, dem der eigentliche Verkaufsakt noch nachgegliedert ist: Mehr Werbung als Verkauf.

Über Werbung werden bereits jetzt eine Reihe von Dienstleistungen finanziert, die sonst kostenpflichtig wären (und für die Anbieter noch nicht kostendeckend sind). Eine der zentralen Dienstleistungen, der Nachweis im Netz gespeicherter Daten und Informationen durch Suchmaschinen, die eine laufende Bestandsaufnahme des Netzes vornehmen, wird durch sogenannte Bannerwerbung finanziert. Dazu wird ein Teil des Bildschirms mit Werbebotschaften versehen. Direktwerbung durch E-Mail-Versand ist erst im Aufbaustadium. Die bislang im Netz informell entstandenen Regelungen, zusammengefaßt im Begriff Nettiquette , stehen einer solchen direkten Belästigung entgegen. Auf Dauer wird sich die Netzgemeinde aber ernsthafter mit diesen elektronischen Formen der Postwurfsendung befassen müssen.

Die Kommerzialisierung des Netzes hat erst begonnen.


4. Rechtliche Kontrolle

Zu den Kernfragen bürgerlichen Rechts gehören die Regelungen des Eigentums und der persönlichen Freiheiten. Beides ist auch im Netz zu regeln, wobei die bisherige mediale Ausprägung des Netzes Kontroversen um Bürgerrechte, Datenschutz, Meinungsfreiheit, Zensur sowie Konflikte zum Umgang mit geistigem Eigentum provozierte. Beides sind Themenkreise, die bislang überwiegend national geregelt wurden und deren unterschiedlichen und kontroverse Ausprägungen nun mit Lichtgeschwindigkeit im weltweiten Netz aufeinanderprallen.

Die moderne Idee des Eigentums wurde im 17. Jahrhundert durch die theoretischen Arbeiten der Juristen Hugo Grotius und Freiherr Samuel von Pufendorf (1632-1694) als Machtverteilung zwischen Staat und Individuum entwickelt. Eigentum wird nach Pufendorf durch die individuelle Aneignung begründet. Diese erfolgte physische Aneignung ist vom Staat zu schützen.

John Locke, Zeitgenosse Pufendorfs verlangte über die physische Aneignung hinaus, die Arbeit als Bedingung dieser Aneignung. Mit der Arbeit entsteht ein Naturrecht auf Besitz des Erarbeiteten. Der Staat ist nicht nötig um dieses Recht zu schaffen, er soll es aber garantieren. Es ist als Naturrecht in diesem Verständnis auch ein transnationales Recht.

Das Ergebnis geistiger Arbeit unterliegt diesem Schutz genauso wie das Ergebnis physischer Arbeit. Die Notwendigkeit des Schutzes geistigen Eigentums erwächst vor allem aus den Möglichkeiten seiner technischen Reproduzierbarkeit, also der einfachen Kopierbarkeit. Unter dem Einfluß der Druckerpresse und der modernen Medien wird der Schutz geistiger Arbeit schwerer, so daß sich eine Reihe von Sonderrechten zur Sicherung geistigen Eigentums herausgebildet haben: Patentrecht, Urheberrecht und Copyright .

Als allgemeiner rechtlicher Schutz wird dies allerdings erst im 19. Jahrhundert anerkannt. Zu Schwierigkeiten führt dabei die im römischen Recht vorherrschende Tendenz, Eigentum nur an anfaßbaren, körperlichen Dingen zuzulassen, andere Dinge wie gewährte Rechte, Patente, Ideen aber nicht als Eigentum anzuerkennen. Dies wird im angelsächsischen und dem US-amerikanischen Recht anders als auf dem europäischen Kontinent gesehen, so daß zwischen den USA und Europa kontroverse Auffassungen vom Eigentum an geistigen Dingen entstanden sind. Natürlich stoßen diese eurozentrischen Auffassungen wie der ganze westliche Eigentumsbegriff in der übrigen Welt auf andere Traditionen.

Nun können nicht alle Dinge Eigentum einzelner werden, es gibt auch Gemeineigentum, oder Dinge, an denen kein Eigentum erworben werden kann (die Atmosphäre, freilebende Tiere oder fremde menschliche Körper). Geistiges Eigentum kann unter Umständen in diese Kategorie des ,,herrenlosen Gutes" fallen, als kulturelles Erbe der Menschheit. Patentrecht und Copyright erkennen dies durch den zeitlich beschränkten Schutz grundsätzlich an. Wie sich diese Probleme im Netz, seine Inhalte und seine Dienste umsetzen lassen, wird sich noch erweisen müssen.

Das Netz bildet mehr und mehr alle rechtlichen Beziehungen der einzelnen Bürger ab. Dies führt zu deutlichen Datenschatten, deren rechtliche Bewertung und Behandlung empfindlich von den nationalen Bürgerrechten abhängt. Die im Netz diskutierten Fragen richten sich stark an der US-amerikanischen Verfassung und Rechtsprechung aus, die zwar in vielen grundlegenden Ideen mit den nationalen europäischen Regelungen kompatibel sind, in der rechtlichen Detailbewertung aber durchaus voneinander abweichen. Datenschutz, informationelles Selbstbestimmungsrecht, Glaubens-, Meinungs- und Pressefreiheit sind in der Bundesrepublik wie in den USA geregelt; im Detail, etwa Fragen neonazistischer Propaganda, unterscheidet sich das deutsche Recht historisch begründet vom Recht anderer Staaten. Im Netz sind diese Grenzen kaum angemessen durchzusetzen.

Daran können auch EU-weite Regelungen etwa des Datenschutzes nichts grundsätzlich ändern, denn in anderen Anschlußgebieten des globalen Netzes stoßen die amerikanischen Vorstellungen von privacy , ,,dem Recht, in Ruhe gelassen zu werden", von freedom of speech , freedom of expression ,freedom of religion oder freedom of the press auf kampf- und zensurbereite Regierungen. Auch die amerikanische Regierung selber folgt den libertären Vorstellungen vieler Netizens keineswegs. So werden Kryptoverfahren, die zur Sicherung rechtsverbindlicher Verträge und Finanztransaktionen unverzichtbar scheinen, als ,,Munition" im Sinne des amerikanischen Waffenexportgesetzes eingestuft. Ihr Export über die US-amerikanischen Grenzen hinaus ist im allgemeinen verboten. Andere Regierungen, z.B. die französische sind dieser amerikanischen Auffassung gefolgt. Dabei geht es ihnen um die Fähigkeit ihrer Polizei- und Geheimdienste, den Datenverkehr zu belauschen oder zu verfälschen, was in scharfem Widerspruch zu den Erfordernissen sicherer Finanztransaktionen und vertraglicher Vereinbarungen im Netz steht. Während die Amerikaner über internationale Gremien wie OECD oder NATO ihre Vorstellungen eines abhörbaren Netzes durchsetzen wollen, ist die Bundesregierung in dieser Frage noch unentschlossen.


5. Politische Kontrolle

Weniger zurückhaltend zeigen sich deutsche Staatsanwälte bei ihrer Interpretation der Grenzen der Meinungsfreiheit. In Treue zum transatlantischen Bündnispartner stehen Kinderpornografie und terroristische Propaganda auf ihrer Wunschliste zu kontrollierender Netzinhalte. Nach dem Versuch, CompuServe wg. des Handels mit pornographischen Bildern zu belangen, hat die Bundesanwaltschaft im September einen umfassenden Versuch gemacht, die deutschen Grenzen gegen den Import der elektronischen Version eines inkriminierten Heftes der Zeitschrift Radikal zu sichern, indem sie allen Betreibern von Vermittlungsrechnern strafrechtliche Folgen wg. Unterstützung einer terroristischen Vereinigung androhte. Sie forderten die Sperrung des Zugangs zu diesen Texten, die auf einem Rechner des holländischen Internet-Providers xs4all gespeichert sind. Eine Anzahl kleinerer Provider folgte angesichts dieser Drohung und sperrte gehorsam den Zugang zu den beanstandeten Texten - und gleich viel mehr.

Weil eine gezielte Sperre technisch nicht mit angemessenem Aufwand realisierbar ist, sperrten sie den Zugang zum gesamten Angebot von xs4all , einem der größten holländischen Anbieter. Das betrifft zehntausende von Texten und Dokumenten. Interessanterweise folgten einige große Provider wie T-Online , CompuServe und America Online dieser Drohung nicht. Auch die holländische Staatsanwaltschaft verweigerte die erbetene Mithilfe, da nach holländischer Interpretation der Meinungs- und Pressefreiheit keine Straftat vorliegt. Als Treppenwitz mag erscheinen, daß das von der Bundesregierung finanzierte Deutsche Forschungsnetz, das die Internetzugänge der meisten deutschen Universitäten bereitstellt, im April 97, also ein halbes Jahr nach der Aktion der Bundesanwaltschaft, den Zugang zu xs4all gesperrt hat, obwohl der inkrimierte Text inzwsuichen auf rund 40 ausländischen Servern verfügbar ist - wohl weniger aus Sympathie mit dem Inhalt, denn aus Mißfallen gegen deutsche Zensurmaßnahmen.

Das Vorgehens der Bundesanwaltschaft ist offensichtlich problematisch. Es ist rechtlich strittig, welche Beteiligten für die in der Bundesrepublik beanstandete Tat verantwortlich sind:

Jede dieser Fragen ist nur mit einer gewissen Wahrscheinlichkeit zu bewerten, da diese Fragen gesetzlich angesichts der schnellen technischen Entwicklung nicht eindeutig geregelt sind. Nach dem Willen der Staatsanwälte sollen sie anscheinend gerichtlich an Einzelfällen geklärt werden. So wird gegen die Bundestagsabgeordnete Angela Marquardt Anklage erhoben, weil sie die Adresse des holländischen Rechners (nicht aber den Text des Dokumentes) im Internet verbreitet hat. Es entsteht eine erhebliche Rechtsunsicherheit, die technisch bedingt ist, aber auch mit dem Vorgehen der Bundesanwaltschaft und Versäumnissen des Gesetzgebers zusammenhängt. Diese Rechtsunsicherheit ist auf keinen Staat der Erde beschränkt, sie ist eine globale Unsicherheit.

Auch in den USA, wo ja die Prinzipien der Bill of Rights sehr hoch gehalten werden, sind viele Fälle beschlagnahmter Rechner und inhaftierter Provider bekannt. In diesem Frühjahr wurde der Communications Decency Act verabschiedet, ein Bundesgesetz, das E-mail-Briefe bis zur Wortwahl regeln soll. Zu einer Geldstrafe bis zu $100.000 und/oder Gefängnis bis zu zwei Jahren kann verurteilt, werden mit Absicht ,,obscene, lewd, lascivious, filthy or indecent" schreibt. Mit diesem Gesetz wird selbst das Versenden manch literarischer oder wissenschaftlicher Texte strafbar, wenn diese von Personen unter 18 Jahren gelesen werden können. Der Communications Decency Act ist in mehreren Gerichtsurteilen als verfassungswidrig eingestuft, aber die Behandlung im Obersten Gerichtshof steht noch aus. Doch selbst, wenn dieses Bundesgesetz vom Gericht zurückgewiesen wird, haben bereits 11 amerikanische Bundesstaaten eigene Gesetze mit ähnlichen Intentionen verabschiedet.

Das einzige, was die Regierungen weltweit in Zensurfragen einigt, ist ein grundsätzlicher Wunsch nach Zensur . Im September 96 haben die ASEAN-Staaten, Brunei, Malaysia, Singapur, Indonesien, die Philippinen, Thailand und Vietnam in einer gemeinsamen Erklärung zur Zensur im Internet, ihre Absicht ausgedrückt, im Netz den Zugang zu allen Rechnern zu sperren, die Inhalte speichern, die den asiatischen Werten widersprechen. ,,They did not reach an agreement on what to block, or how" schreibt die amerikanische Bürgerrechtsorganisation Electronic Privacy Information Center.

Die vietnamesische Regierung hat ihre Absicht erklärt, auf allen Rechnern mit Internet- Zugang Programme einzussetzen, die unerwünschte Zugriffe herausfiltern. Dies ist technisch ein herausforderndes Projekt - falls noch etwas übrig bleiben soll.

In harmloserer Form verteilen Provider wie CompuServe Filterprogramme, die den neugierigen Nachwuchs der Netizens vom Giftschrank fernhalten sollen. Diese sperren den Zugang zu bekannten Servern mit pornografischen und anderen nicht kindgerechten Inhalten - durchaus in Kooperation mit den Schmuddelware-Anbietern, die ja ungestört an das Geld ihrer web-zappenden Kunden wollen. Das Kind wird seine Computer Literacy dadurch beweisen müssen, daß es lernt mit anonymen remailern umzugehen.

Solche Filterpogramme enthalten natürlich höchst interessante Informationen, eben die Zugangsadressen der gesperrten Dateien. Schon Freud hat auf den zweifelhaften Charakter der Negation hingewiesen. Konsequenterweise wird in der Zeitschrift FadeToBlack das Programm NetNymph angeboten. ,,Introducing NetNymph the only software on the Internet that let's you view only pornography, without the annoyance, and nuisance of all other useless information. ... If NetNymph determines that the information on the page is not related to pornography, it blocks it out, not allowing you to have access." Die Anforderungen an den PC sind bescheiden: 386 Prozessor, Windows 3.1 oder 95, 5 MB Platte, 2 MB Hauptspeicher (4 MB empfohlen) und VGA-Grafik soll genügen. Die Mac Version soll in Kürze erhältlich sein. Der Preis beträgt $49,-- plus Versand.

Doch keine Satire ist zu blöd, um nicht von der Wirklichkeit eingeholt zu werden. Die britische Regierung unterstützt die Organisation Safety Net , die den Usenet Newsgruppen Zensuren anheften will, die auf illegalen oder pornographischen Inhalt hindeuten. Noch kann im zivilisierten England weiterhin jeder seinen Bedarf an Pornografie, Naziliteratur und Bombenbastelanleitungen decken. Er findet die relevanten Dokumente Dank Her Majesty's Government künftig etwas schneller. ,,We continue to censor our films, books, magazines, and television programmes, not because censorship can ever be 100 percent effective, not even 20 percent effective, but because the act of censureship is itself symbolic and an affirmation to young and old of the values that we hold as a society." erläuterte George Yeo, der Minister für Information und Künste Singapurs, laut The New Paper im Juni 1995 die grundsätzliche erzieherische Haltung seiner und vieler anderer Regierungen. ,,Information wants to be free!".

Technisch sind Zensurmaßnahmen auf breiter Front nicht realisierbar. Zensur im Netz kann nur als mehr oder minder willkürliche Einzelmaßnahme erfolgen. Dies ist das grundlegende Dilemma, dem alle Regierungen im globalen Netz ausgesetzt sind. Die politische Kontrolle des globalen Netzes stellt sich für die Nationalstaaten und ihre Regierungen nicht nur als Frage der inhaltlichen Kontrolle, also der Zensur des Netzes, sondern auch als als Frage der Kontrolle über den Zugang zum Netz.

Laut Financial Times vom 5 Oktober 96 verbietet Burmas Militärdiktatur den nicht- genehmigten Besitz von Rechnern mit Modems und droht seinen Bürgern Gefängnisstrafen zwischen 7 und 15 Jahren an, falls sie über das Internet unerwünschte Informationen über Themen der Staatssicherheit, der Ökonomie oder der nationalen Kultur senden oder empfangen. Nun mag sich Burma aus der Gemeinde der Netizens ausschließen. Für die begonnene Industrialisierung der VR China ist das Netz längst unverzichtbar. 1995 wurden 1,1 Mio PCs verkauft und es wurden über 100.000 Internet-Anschlüsse registriert. Die Regierung der Volksrepublik China verlangt seit Februar eine erneute Registrierung aller Nutzer des Internets und deren schriftliche Versicherung, der Nation im Netz keinen Schaden zuzufügen und nicht gegen Gesetze zu verstoßen. Beide Fragenkreise, Zensur wie materieller Zugang, werden von den Regierungen als essentielle staatliche Hoheitsrechte gesehen. Im Netz stoßen sie auf eine globale Gemeinschaft der Netznutzer, die das Netz als Hort der individueller Freiheiten jenseits staatlicher Schranken erleben und zunehmend verteidigen. Die Technik ist im Regelfall auf ihrer Seite, da sich staatliche Regulierungen und Eingriffe empfindlich auf den intendierten offenen, globalen Austausch auswirken.


6. Nationalstaat & Öffentlichkeit im Netz

Das Netz erweist sich als ein verallgemeinerndes Medium, das aus allen Grundstoffen Zahlen macht, digitale Zeichenketten. Es ähnelt darin dem Geld, dessen allgemeine Austauschbarkeit die Basis des kapitalistischen Warenverkehrs bildet. Beide Verallgemeinerungen sind natürlich nicht verlustlos. Der Tauschwert ignoriert wie die digitale Abbildung alle anderen Aspekte von Waren und Prozessen. Beide Verallgemeinerungen sie auch nicht unabhängig voneinander. Im Netz muß eine tauschbare Währung zur Verfügung stehen - und diese wird natürlich wie ihr historisches Vorbild aus Zahlen bestehen. Allerdings können dies beliebig kleine Zahlen sein, eben nicht nur Pfennige, sondern auch Millipfennige oder Mikropfennige. Einer radikalen Monetarisierung aller Netzdienste steht damit technisch nichts mehr entgegen. Der Charakter dieser Netzwährungen ist notgedrungen global. Keine Mikropfennige, keine Mikrodollars, keine Mikroeuros, sondern Mikronetztaler. Die Bindung dieser Netzwährungen ist gleichfalls global. Garantieleistungen muß nicht notwendigerweise ein Staat erbringen. Es muß nur eine vertrauenswürdige Organisation mit hinreichender Durchsetzungskraft sein, zum Beispiel ein Konglomerat der Telekoms, deren Macht im Netz unbestreitbar ist und die bereits überein komplexes System finanziellen Ausgleichs in der transnationalen Gebührenrechnung besitzen.

Mit dem Verlust der Währungshoheit steht die Steuerhoheit zur Disposition, zumindest soweit das Netz involviert ist. Es sieht nicht gut aus für den klassischen Nationalstaat, zumal die Globalisierung durch die offenen Rechnernetze nur Teil einer umfassenderen Globalisierungsstrategie sind. Marcello Pacini, Direktor der Agnelli-Stiftung sagte 1995 in einem Spiegel -Interview: ,,Der Nationalstaat hat ausgedient, einmal, weil die moderne Technologie, die einheitliche Währung und die gemeinsame Verteidigung nach einer Verankerung in übernationalen Strukturen verlangen. Zum anderen, weil sich moderne Gesellschaften nach regionalen Grundsätzen neu organisieren müssen, schon um den Bürgern bessere Möglichkeiten der demokratischen Beteiligung zu geben. Das ist die Zukunft ..."

Die Information Society steht durch die globale Vernetzung gegen die Konzepte des Nationalstaates. Dessen politisches Eingriffsmittel in die Netze par excellence , die nationalen Telefon- und Postdienste sind in den großen Staaten nach amerikanischem Vorbild privatisiert. Dies ist ein wesentliches, irreversibles Ergebnis des und des Reaganismus der Achtziger Jahre. Die Staaten haben damit ein wirksames Machtmittel in anonyme private Anlegerhände gelegt. Zur Strafe wird die politische Klasse wesentliche Anteile ihrer Macht abgeben zu müssen. Sie begibt sich und wir mit ihnen in eine selbstverschuldete Unmündigkeit, für die keine politische Befreiung sichtbar ist, da kaum Mittel demokratischer Steuerung erkennbar sind.

Die klassische Öffentlichkeit , die medial so sehr an die Diskussion in den Printmedien gebunden war, ist durch die elektronischen Medien längst zersetzt und partitioniert. Die globalen Netze zerstören diese den Nationalstaat tragende Öffentlichkeit endgültig. Ob das Netz neue, globale Öffentlichkeit als politische Kraft formieren kann, ob es als Agora , als Marktplatz der Ideen im global village dienen kann, muß sich erst zeigen. Es bleibt die, freilich geringe, Hoffnung, daß aus einer unübersichtliche Situation neue Chancen erwachsen.

Ich will es mit Jean Paul halten, der in vergleichbarer Umbruchsituation einst notierte: ,,Über den Untergang der Staaten. Ich bedaure keinen. Der Teufel kann nichts holen als was sich ihm ergeben hat."

Literatur

 

Zurück zum Anfang des Textes


Adresse des Verfassers:


Prof. Dr. Wolfgang Coy
Humboldt-Universität zu Berlin
Institut für Informatik, Informatik in Bildung & Gesellschaft
Unter den Linden 6
D-10099 Berlin

Tel +49 30 2018 1303
Fax +49 30 2018 1304
coy@informatik.hu-berlin.de


Der Text wurde am 12.12.96 vorgetragen, diese Seiten wurden am 15.4.97 erstellt