Dies ist ein Vorabdruck des Manuskripts eines Vortrags zum 25-jährigen Bestehen der Informatik an der Universität Hamburg im November 96. Der Text ist unter dem Titel "Turing@galaxis.com II" in dem Warnke, Coy, Tholen (Hrsg.), HyperKult - Geschichte, Theorie und Kontext digitaler Medien, Basel: Stroemfeld, 1997 zu finden. Die hier gespeicherte Fassung ist nicht abschließend korrekturgelesen. Sowohl Inhalt wie Schreibweise mögen sich noch ändern. Zum Zitieren gilt die gedruckte Fassung.
Ob Wissen Macht ist, sei dahingestellt. Belegbar scheint, daß die Macht zum Wissen in Konkurrenz steht. Gleichzeitig ist die Ordnung des Wissens eine der beliebtesten Techniken der Machterhaltung &endash; bis hin zu Erziehung und Zensur. Die Bolshaya Sovetskaya Entsiklopediya, die große sowjetische Enzyklopädie, erschien in 65 Bänden von 1926 bis 1947. Als der letzte Band gedruckt und ausgeliefert war, war die erste Auflage politisch überholt; ihre Auslieferung wurde eingestellt. 1950 begann die zweite, 50-bändige Auflage. Nachdem diese 1958 beendet wurde, war die zweite Auflage politisch überholt. Es erschien ein 51. Band mit den Biographien der rehabilitierten Opfer stalinistischen Terrors. Ein Jahrzehnt, nachdem die dritte, nur noch dreißigbändige Auflage erschien und Übersetzungen ins englische, italienische, griechische und spanische begonnen waren, wurde die Sowjetunion gelöscht. Staat und Enzyklopädie waren politisch überholt.
Wissen hat also nicht nur einen inhaltlichen, sondern auch einen zeitlichen und räumlichen Geltungsbereich. Wissen beruht auf der Kultur, in der es produziert wird. Die Ordnung des Wissen ist immer auch eine politische Ordnung.
Informatiker verstehen sich wie viele Techniker gerne als Helfer zur Entlastung der Menschheit von den Anstrengungen und den Mühen des Lebens. Die Entlastung von Routinetätigkeiten geistiger Arbeit, von den Anstrengungen und Gefahren körperlicher Arbeit, die Erleichterung des Zugangs zu Weltwissen und zu umfassender Bildung, die Befreiung von Arbeitslast und die Möglichkeit zum spielerischen Umgang mit virtuellen Welten sind gesellschaftliche und kulturelle Projektionen der Informatik. Daß solch radikale Eingriffe in die Alltags- und Arbeitssituation nicht nur einseitige Verbesserungen, sondern auch soziale und kulturelle Risiken darstellen, ist nicht überraschend. Überraschend ist bestenfalls das langsame Anlaufen dieser kulturellen Eingriffe und die erst jetzt beobachtbare Beschleunigung und schrankenlose räumliche Ausbreitung dieser Phänomene.
Kultur, verstanden als ganzheitliche Muster menschlichen Wissens, Wahrnehmung, Glaubens und Verhaltens, unterliegt mehrfachem Ansturm durch die neuen technischen Entwicklungen. Unaufhaltsam ist die immer tiefere Durchdringung der kulturellen Inhalte &endash; von der Arbeit, der Kunst, den Institutionen, dem Recht, den Bräuchen und Ritualen, dem Glauben, den Ideen, bis zu Sprache und Wahrnehmung. All dies, die Fähigkeiten und Gewohnheiten, die eine Kultur ihren Mitgliedern vermittelt, wird durch die Ergebnisse informatischen Tuns beeinflußt, verändert, neu bewertet und definiert. Regionale Kulturen werden so technisch umgestaltet, entlang informatischer Vorgaben, die Teil dieser Kultur sein mögen - oder auch nicht.
Neben der Tiefe dieser Eingriffe erfahren wir mit den weltweiten Netzen eine beschleunigte Globalisierung dieser Prozesse und Effekte. Dies ändert nicht nur die regional entfalteten Kulturen, es verpflanzt auch Elemente technisch dominierender Kulturen in andere Bereiche. Dem relativ abgekapselten Nebeneinander getrennter Kulturbereiche wird eine weiteres mal ein globales Miteinander aufgezwungen. Dies ist nicht unbedingt ein friedlicher Prozeß: Er steht in der Tradition der europäischen Neuzeit, die, wie Hegel ja einmal bemerkte, durch die technischen Errungenschaften von >Buchdruck und Schießpulver< charakterisiert wird. Die Hauptaufgabe jeder Kultur, die Bewahrung und Weitergabe akkumulierter Erfahrungen und akkumulierten Wissens, wird unter diesen Randbedingungen neu gestellt &endash; und sie wird in vielen Aspekten in Frage gestellt. Transmitter dieser kulturellen Wirkungen der Informatik sind die Medien, deren Digitalisierung und Vernetzung erst die volle Entfaltung informatischer Techniken, Wirkungen und Denkweisen ermöglicht.
Kultur beruht auf gemeinsamen Erfahrungen, Wissen, Glauben und Handlungen. Etwas sicher zu wissen, heißt, etwas sicher zu glauben. Die Selbstversicherung über das eigene Wissen führt zu einer der Grundfragen der Epistemologie, der philosophischen Analyse des Wissens: >Wieso sind wir sicher über das, was wir wissen?< Der moderne, wissenschaftsorientierte Rationalismus hat uns ein fragiles Gerüst zur Verfügung gestellt, der uns in Wissensdingen bestärkt und in Glaubensfragen zu Agnostikern verdammt hat. Wir wissen, was wir lesen und überprüfen können und wir glauben nichts, was wir nicht überprüfen, beweisen oder demonstrieren können.
Durch die technisch-mediale Entwicklung ist den selbstreflexiven Momenten des Wissens ein anderes Wissensverständnis entgegen und zur Seite gestellt: Das externalisierte Wissen, das aufgeschriebene, aufgemalte oder berechnete Wissen, kurz das außerhalb menschlicher Körper gespeicherte und übertragene Wissen. Nur mit diesem will ich mich im weiteren beschäftigen.
Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen - mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung.
In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens.
Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.
Angesichts dieser ungesicherten Qualitätslage soll im Kontext der unterschiedlichen Medien und ihrer globalen Ausbreitung vor allem der formale Aspekt des Wissens betrachtet werden: Wissen sei hier als medial gespeichertes oder übertragenes Wissen jeglicher Art, jeglicher Menge und jeglicher Güte verstanden. Es gehe hier also nur um mediales Wissen ex corpore &endash; um technisch bearbeitbares, speicherbares, übertragbares und damit auch intersubjektiv wahrnehmbares Wissen. Das Wissen in den Köpfen selber sei im Zeitalter seiner technischen Speicherbarkeit erst einmal zurückgestellt.
In dieser Sicht sollen zwischen wissenschaftlich abgesichertem Wissen, religiöser Erfahrung, Alltagswissen, fahrlässiger und unverschämter Lüge keine wesentlichen Unterscheidungen getroffen werden - solange sie als mediale Artefakte, gespeichert im Druck oder einem anderen Massenmedium, untersucht werden.
Neben der Qualitätssicherung hat es nicht an Versuchen gefehlt, das verfügbare Wissen anzuordnen. Inhaltliche Klassifikationen sind die Domäne der Enzyklopädien. Die lexikographische Klassifikation an Hand des Alphabets ist erstaunlicherweise erst im Mittelalter erfunden worden, im 12. Jahrhundert. Und dies, obwohl Generationen griechischer und römischer Kinder seit mehr als anderthalb Jahrtausenden die Ordnung des ABC als erste Begegnung mit der Schrift erfuhren. Enzyklopädien ohne alphabetische Ordnungen sind uns heute unvorstellbar.
Bibliothekskataloge dagegen brauchen mehr als eine bloße Aufzählung ihrer Bücher, sie brauchen inhaltliche Klassifikationen. Als deren vorläufiger Höhepunkt erscheint die Dezimalklassifikation, die formal die Aufzählung der Zahlen von 1. über 1.1, 1.2 1.3 und 1.1.1 bis ins Unendliche verfolgt. Auch diese intuitiv selbstverständlich erscheinende Art der Numerierung ist eine neue Entwicklung. Erstmals findet sie sich bei Melvil Dewey in seiner Ordnung der Bibliothek des Amherst Colleges im Jahre 1873. Über die formale Möglichkeit der dezimalen Indizierung hinaus schlägt Dewey ein inhaltliches Klassifikationsschema vor, das das gesamte in Büchern gespeicherte Wissen in genau zehn Gruppen einteilte, von
Wer sich hier nicht wiederfindet, muß draußen bleiben. Bei allem formalen Verdienst der Dezimalklassifikation scheint diese inhaltliche Einteilung des Weltwissens dann doch fragwürdig.
Vielleicht nützt ein Blick auf die Vergangenheit der Medien. Vor dem erahnbaren Ausklang der Dominanz des gedruckten Buches haben drei Brüche unser Verständnis vom gespeicherten Wissen und damit unsere Kultur wesentlich verändert. Dies sind die Erfindung des Alphabets, die Erfindung des Buchdrucks und Entstehung der elektrischen Massenmedien.
Die Schrift, insbesondere die Erfindung des griechischen phonemischen Alphabets, vermutlich im 7. Jahrhundert vor unserer Zeitrechnung, schuf die Voraussetzung für die Schriftkultur. Schreiben hat die oralen Tradierungen des Wissens über weite Strecken abgelöst. Während die Homerischen Epen noch eine enorme Gedächtnisleistung verlangten, sind Platons Dialoge, entgegen ihrem modernen Titel, keine mündliche Form mehr, sondern wörtlich fixierte Rede. Im Phaidros-Dialog läßt Platon seinen Helden Sokrates die Differenzen zwischen mündlicher Rede und schriftlicher Form aufdecken: Den Text kann man nicht befragen, denn er antwortet stets das Gleiche. Der Text entlastet zwar die Erinnerung, aber er schwächt auch das Gedächtnis. Doch Platon weiß wohl auch um die Vorteile dieser technischen Speicherung der Erinnerung. Wir müssen dies heute, fast zweieinhalb Jahrtausende später, beim Lesen seiner Schriften annehmen. Er hat uns damit auch ein nettes Puzzle hinterlassen: Wie sichern wir, daß unsere Kultur in zweieinhalbtausend Jahren noch >lesbar< oder besser: >entzifferbar< ist?
Die Schrift hat uns das Manuskript beschert. Die Einführung des Papiers in Europa, die Erfindung des strukturierten Textes und des tragbaren Buches im 12. Jahrhundert schufen die Voraussetzungen des Gutenbergschen Experimentes, aus dem das System Satz-Druck-Verlag und damit die erste moderne industrielle Warenproduktion entstand. Das Buch als Kopie des Buchs, aus dessen Lektüre wieder neue Bücher entstehen. Dies ist die Basis neuzeitlicher Literatur und Wissenschaft. Der Buchdruck als rekursives Schema der erweiterten Produktion wird zum Vorbild der industriellen Warenproduktion. Die Gutenbergsche Ära macht uns alle zu Leserinnen und Lesern, deren Denken und Wahrnehmung literal geprägt sind.
Doch dieser Umerziehungsprozeß erreicht erst im neunzehnten Jahrhundert mit der allgemeinen Schulpflicht seine Blüte, um an dessen Ende durch neue elektrische und opto- chemische Medien, wie Telegramm, Fotografie, Film und Telefon, ergänzt zu werden.
Mit den elektrischen Massenmedien des Hörfunks wie des Fernsehfunks, erhält die geschriebene Sprache ein neues Kleid. Sie wird wieder in die gesprochene Sprache zurückgeformt, freilich nun als sekundäre Oralität, der die wesentlichen Qualitäten des Sprechens verwehrt bleiben. Sokrates Klage im Phaidros-Dialog, daß man einen geschriebenen Text nicht befragen könne, gilt natürlich auch für die elektrischen Massenmedien. Ein unmittelbarer Austausch ist nicht vorgesehen, die mediale Rollenverteilung sieht Sender und Empfänger vor. Goebbels hat dies klar erkannt:In seinem Geltungsbereich gab es nur einen Sender. Der Volksempfänger VE301 erinnerte mit seinem Namen an das Ende der Republik am 30. Januar 1933 und ließ technisch keine anderen Sender neben sich zu.
Diese Idee gefiel auch in der jungen Bundesrepublik, die sich beim neuen Leitmedium, dem Fernsehfunk, anderthalb Jahrzehnte auf eine Stimme beschränkte. Hat sich die Zahl
der Sender auch vervielfacht, so bleibt doch die Struktur Sender-Empfänger auf unabsehbare Zeit in den Massenmedien erhalten. Die Ausdehnung der Empfangsbereiche durch Satelliten folgt freilich den Kommunikationsmedien Telegrafie und Telefon, so daß eine globale Senderstruktur in Umrissen erkennbar wird: Extensions of men, globale maschinelle Verlängerungen der Zentralnervensysteme, um auf den kanadischen Medienforscher Marshall McLuhan zurückzugreifen. Freilich wirken diese Verlängerungen in beide Richtungen. Die Wahrnehmung mag ohne zeitliche Verzögerung überall wirken, aber die Sender- Empfängerstruktur der Massenmedien greift auch umgekehrt in die zentralen Nervensysteme der Empfänger ein. Menschen werden zu medialen Knoten eines weltumspannenden Netzes. Die Medien sind nicht nur als Prothese zu sehen, sondern auch als Zwangsjacke.
Dabei verlieren die Medien durch diese Omnipräsenz ihre ursprüngliche Aufgabe des Übermittelns von Botschaften aus dem Blick. Sie werden zu nicht mehr abschaltbaren Organverlängerungen, deren Content seine Bedeutung gegenüber den Strukturen verliert. Marshall McLuhan kann deshalb mit Recht sagen: The medium is the message!
Basis der neuen Digitalen Medien sind die Computer, insbesondere in ihrer global vernetzten Form. >The net is the computer!<, wie die Firma SUN dies lange vor dem Internet vermutete. Mehrere mediale Interpretationen bietet das Internet als bisher emergierende Form des globalen Netzes an:
In den Dreißigern hieß die Werbebotschaft:,,Fernsehen ist Frohsinn". Nun: Auch das Internet kann Frohsinn bieten, Beschäftigung für die Beschäftigungslosen und alle, die sich langweilen. Das World Wide Web wird dann zum offenen Fernsehkanal, der gleichzeitig als Telefon, Schreib- und Briefmaschine, Bibliothekskatalog, Plattenspieler, Fotoalbum, Rundfunkstation oder Spielekonsole dienen kann. Es gibt jedoch keinen Grund, warum das Netz nicht über die cross-over Phase aus Bibliothek, Telefon und Fernsehen hinauswachsen könnte. Technisch sind andere, neue mediale Formen denkbar. Dann wird das Netz ein Zwitter, Massenmedium und intime Kommunikation, ein Narrow Cast, in dem sich kleine Gruppen als Schreib- und Lesezirkel der E-Mails, Lists, News und MUDs bilden oder als Plaudergruppen zum schriftlichen oder telefonischen Plausch einer wechselnden Zahl, in Echtzeit verbundener, Teilnehmer und Teilnehmerinnen konstituieren. In diesen gleichzeitigen, aber weltweit verteilten Chat- Gruppen mag man das Global Village Herbert Marshall McLuhan sehen.
Und jenseits dieser medial vermittelten Realität mögen,,virtuelle Welten" entstehen, Welten in denen unsere Sinne ganz oder teilweise gefangen werden von künstlichen Eindrücken, die Reales wie Irreales widerspiegeln können. Welten, in denen wir uns, alleine oder mit anderen, in technischer Phantasie vergnügen oder erschrekken &endash; oder langweilen.
Ist dies die konsequente Verlängerung unserer bisherigen Erfahrungen &endash; oder handelt es sich um eine brave neue Welt ?
Im Netz sind die Elemente der alten Wissensspeicher, der Bibliotheken, Museen, Archive und Mediatheken erkennbar. Kataloge, Bücher, Zeitschriftenartikel, Gesetzestexte, Wetterberichte, Sportnachrichten, Fußballtoto, Aktienkurse, Veranstaltungskalender, Museumsführer, Fernsehprogramme - was immer irgendwo gedruckt wird, kann auch im Netz bereitgehalten werden. Die Gutenbergsche Welt der Bleilettern, die längst dem elektronischen Satz gewichen ist, verdoppelt sich fast mühelos im Netz.
Die Werbeindustrie, die in den zwanziger Jahren die gedruckte Ware als Printmedien vom dem anderen, neu entstandenen Massenmedium Rundfunk unterschied und uns damit den Namen Media nahelegte, hat die offenen Rechnernetze längst als Tätigkeitsfeld entdeckt. www-Adressen gehören seit zwei, drei Jahren zum guten Werbeton, und viele entgeltfreie Dienstleistungen im Netz sollen künftig mit Werbeeinnahmen bezahlt werden. Die grafische Form des World Wide Web hat die bis dahin fehlende Voraussetzung für den Zugriffe der Werbeindustrie und damit eine breite kommerzielle Nutzung des Netzes geschaffen.
Greift die neue elektronische Distribution auch weitgehend auf herkömmliche Produktionsformen zurück, so sind doch auch neue Produktionsweisen erkennbar. Nachrichten, in Form von Newsgruppen und Verteillisten, besitzen keine Urbild im Printbereich, sie sind originäre Schöpfungen des Netzes. Auch elektronische Zeitschriften bilden eine neue Kategorie der Produktion. Ihre Qualität schwankt wie bei ihren gedruckten Pendants zwischen Ein-Mann-Produktionen und wissenschaftlichen referierten Fachzeitschriften höchster Güte.
Damit wird das entfaltete Gutenbergsche Produktionssystem Satz-Druck-Verlag neu definiert. Neben der Kopie der bisherigen Produktionsweise entstehen neue Möglichkeiten der Wissensproduktion, der Wissensverteilung und der Wissensaufnahme. Die Folgen dieses Shifts sind nicht absehbar.
Die Zeit des dominierenden Wissens in Buchform ist vorbei. Zwar haben die elektrischen Massenmedien schon lange an diesem Bild gekratzt, aber mit dem Netz wird klar, daß textliches Wissen nur eine mögliche Erscheinungsform ist. In beschleunigter Folge wird deutlich, daß andere mediale Formen wie Programme, Bilder, Grafiken, Videos, Töne, Sprache oder Musik mit gleichem Recht Wissen repräsentieren und als solches wahrgenommen werden. Da unsere Denk- und Wahrnehmungsstrukturen bis hin zum politischen Selbstverständnis als mündige Bürger in einer aufgeklärten Öffentlichkeit zutiefst am gedruckten Wort hängen, werden sich Sprünge und Brüche unseres kulturellen Selbstverständnisses nicht vermeiden lassen.
Funktional ist das Netz als Medium gekennzeichnet durch * weltweiten Zugriff und
* stark erhöhte Geschwindigkeit der Produktion und Distribution. Im offenen Netz gespeichertes Wissen ist überall und gleichzeitig verfügbar. Den angenehmen Erfahrungen räumlicher Ausweitung und zeitlichen Beschleunigung steht das Grundproblem des Wissensadressaten, sagen wir des,,Lesers", gegenüber, nämlich: Wie finde ich das Wissen, das ich suche?
Zwei Grundformen sind aus der Tradition der Bibliothek und des Buchladens übernommen.
Zielgerichtetes Suchen auf Grund klarer Vorinformation oder
diversives Stöbern.
Beides wird im Netz abgebildet - und beides hat seine Tücken. Das Netz strukturiert das Wissen, aber dies geschieht weitgehend strukturlos, letztlich ohne erkennbaren Kontext, geordnet nur nach Adressen.
In mancher Hinsicht vollendet sich mit dem Netzarchiv der Traum der Enzyklopädisten. Doch es entsteht kein universelles Lexikon des Weltwissens, sondern das Weltwissen selber wird zum Lexikon, vergleichbar einer Landkarte im Maßstab 1:1. Es ist freilich eine wesentliche Differenz aufgerissen: Während es den Enzyklopädisten letztlich um Wissen gesicherter Güte ging, haben wir es im Netz mit Medienwissen zu tun, also Wissen, das weder der Wahrheit noch der Erkenntnis oder der Wissenschaft verpflichtet ist.
Über die Links der Hypertextstruktur kann alles, was gespeichert wird explizit mit allem verbunden werden. Eine vollendete Kultur der Fußnote wird möglich. Die von Friedrich Arnold Brockhaus 1811 erstmals gedruckten Verweispfeile Æ, die das über Jahrhunderte überkommene vgl. oder s.a. ersetzt haben, sind im Netz technisch durch Hyperlinks neu definiert. Freilich sind diese im Text erst einmal unsichtbar, so daß sie extra markiert werden müssen, um als Verweis erkennbar zu werden.
Auch für Hyperlinks gilt: Eine explizite Verbindungsstruktur erfordert vom Autor ein entsprechendes Wissen über die Zusammenhänge. Die technische Altermative zum expliziten Konnex besteht in impliziter, formaler Verbindung. Da die Netzknoten
Computer sind, können sie Verbindungen auf Grund von Ähnlichkeiten programmiert aufspüren. Webcrawler, Suchprogramme, die zu einem gegebenen Wort von einem Dokument die Verbindung zu anderen suchen, sammeln im Netz Listen dieser Verweise und bieten sie den suchenden Endknoten, also den Lesern an. Die Künstliche Intelligenz Forschung, die ja selten um Worte verlegen ist, hat derartigen syntaktischen Suchprogrammen eine blumigere Bezeichnung zugewiesen. Sie nennt sie Agenten, die offen oder verdeckt für ihre Auftraggeber, im Netz navigieren. Natürlich wird die Bewertung des ja bloß durch Wortähnlichkeit gefundenen Querverweises zum semantischen Problem. Als alternativen Ansatz zur Erstellung von Netznavigationshilfen gibt es deshalb auch Suchmaschinen, die von geschulten menschlichen Klassifikatoren gesteuert werden. Sie sind vielleicht die Nachfolger der weitgehend verschwundenen >guten Buchhändler< oder Bibliothekare. Das Problem menschlicher Intervention und Gestaltung wächst freilich rapide mit dem Wachstum des Netzes, das einer umfassenden Kenntnis seines Inhalts mehr und mehr entgegensteht.
Während es also mit der technischen Ordnung der Dinge im Internet keineswegs zum besten steht, ist die soziale Ordnung, die politische, ökonomische und rechtliche Seite weitgehend ungeklärt.
Dies beginnt mit der Frage nach den Zugangsrechten. Dabei sind weniger die Zugangsbeschränkungen durch willentlichen Akt der angeschlossenen Rechnerbetreiber von Bedeutung als das faktische Recht auf Zugang, das derzeit ja noch mit erheblichen Grundkosten verbunden ist. Öffentliche Zugänge in Büchereien oder Bildungseinrichtungen sind hier als mögliche Lösungsansätze zu sehen. Eine generelle Senkung der Einstiegspreise und der Leitungskosten sind eine weitere Voraussetzung für eine breite Nutzung des Netzes. Dennoch wird es lange Zeit ungleiche Zugangsmöglichkeiten geben &endash; insbesondere wenn man den von der Konstruktion des Netzes implizierten globalen Zusammenhang betrachtet. Armut verschwindet nicht auf Grund des gemeinsamen TCP/IP-Protokolls.
Diesen praktischen Problemen überlagert sind die rechtlich-politischen Fragen der Zensur und des Datenschutzes. Es gilt, Begehrlichkeiten einzelner Regierungen, Parteien oder anderer Glaubensgemeinschaften abzuwehren. Das Netz selber ist dabei technisch nicht neutral: Der nur auf den ersten Blick illusionär erscheinende Schlachtruf > Information wants to be free! < hat sehr wohl technische Wurzeln in einem globalen Netzverbund, zu dessen ursprünglicher Aufgabe es gehörte, Informationen unter den Kampfbedingungen eines nuklearen Krieges zu erhalten. Vielfache Redundanz, stark erleichterte Möglichkeiten der Publikation, Kopie und Distribution sowie das letztlich nicht kontrollierbare Ausweichen über alle nationalen Grenzen hinweg begünstigen den subversiven Umgang mit der Zensur. Sie erlauben aber auch die Umgehung andere rechtlicher Regelungen des Informationsverkehrs.
Es stellt sich die schwierige Aufgabe, Veränderungen gewachsener Rechtsordnungen in einem transparenten, nachvollziehbaren Rahmen an die neuen technischen Gegebenheiten anzupassen.
Die ,,Kommerzialisierung" des Netzes wird von manchen als ein Teil er Lösung dieses Problems gesehen. Kosten sollen über Werbung abgefangen werden. teilwiese geschieht dies schon. Letztlich ist Werbung natürlich nur eine Verteilung der Kosten auf die Schultern von Konsumenten. Zu welchen anderen Folgen außer einer scheinbaren Kostenentlastung durch Verteilung der Grundkosten auf die Konsumenten die Kommerzialisierung führt, ist nur schwer vorhersagbar. Als möglicherweise nicht triviales Problem mag sich erweisen, daß das Netz mit seinen schnellen Rückkopplungsmöglichkeiten eine völlig andere Werbestruktur generiert, in der die allgemeine Kostenentlastung gar nicht wiederzufinden ist. Als Stichwort will ich hier nur auf eine radikale Zielgruppenanpassung hinweisen: Es mag ja möglich werden, Werbebotschaften gezielt nur an diejenigen abzuliefern, von denen man Akzeptanz und Finanzkraft erwartet. Dann gibt es aber keinen Grund mehr, die identifizierten Have-Nots mittels Werbung finanziell zu unterstützen.
Die Verfügung über das gespeicherte Wissen erfolgt natürlich nicht im rechtsleeren Raum. Speicher und Archiv unterliegen dem Urheberrecht oder Copyright; manchmal greift auch das Patentrecht. Diese Rechte sind international keineswegs aufeinander abgestimmt. Sie sind ja in starkem Maße vom Kultur- und Sprachraum her definiert.
Durch die digitale Umformung aller Medien und ihre Vernetzung werden die unterschiedlichen gewachsenen nationalen Wissensordnung und Kulturen radikal in Frage gestellt. Zu schaffen ist eine global wirksame, aber kulturell regional anpaßbare Wissensordnung. Diese regelt neben der Rechtsordnung und der Wirtschaftsordnungen den Umgang mit, den Zugang zu sowie Einsatz und Verwertung von Informationen. Der von dem Karlsruher Philosophen Helmut Spinner eingebrachte Begriff wird von ihm so bestimmt: >Eine Wissensordnung ordnet Wissensbereiche, aber nicht auf die buchstäbliche Weise einer gegenständlichen, formalen oder inhaltlichen Klassifikation von Wissenstypen, Wissensrichtungen, Wissensträgern (wie z.B. die bibliothekarische Wissensordnung für Publikationsmaterialien), sondern im Sinne einer Rahmenordnung aus regulativen Bestimmungen und sonstigen Bedingungen für den dadurch im einzelnen keineswegs vorgeschriebenen Umgang mit Wissen.<
Der Schutz geistigen Eigentums durch Patentrecht oder Urheberrecht ist ein Teil der Wissensordnung ebenso wie das Presserecht oder die Zensur. Freiheit der Forschung und Lehre ist Teil unserer Wissensordnung ebenso wie die Sicherung des allgemeinen Zugangs zu öffentlich verbreitetem, gedruckten oder anders medial verbreitetem Materials durch öffentliche Bibliotheken.
Für die Universitäten definierte Wilhelm v. Humboldt den ordnungspolitischen Rahmen für die vier großen Wissensfreiheiten der Wissenschaften, die ich mit Helmut Spinner aufzählen möchte:
Wissen kann in einer neuen, global orientierten Wissensordnung völlig unterschiedlich bewertet werden: Als öffentliches > herrenloses< Gut, als das es im Kontext der Wissenschaften in europäischen Industrieländern gilt, oder als Ware, wie es den Medienkonzernen in Hollywood und anderswo vorschwebt, oder aber als >Kulturelles Erbe der Menschheit<, wie es die UNESCO bewertet. Mit der Globalisierung werden die national unterschiedlichen Auffassungen zur Wissensordnung in eine transnationale Konkurrenz und Konvergenz gezwungen, die derzeit überwiegend durch die Interessen und Entscheidungen der Medienkonzerne geformt wird. An deren Begehrlichkeiten vorbei, sind neu zu regeln * die Verfügbarkeit des Wissens,
* die Frage seiner Zweckgebundenheit,
* die Beziehung des Wissens zum Handeln und * das Verhältnis zur Macht.
Neue Wissensstrukturen und neue Wissensorganisation können und werden nicht ohne Einfluß auf die Inhalte bleiben. Schon die stark erleichterte Produktion und der Wegfall der Filter durch Verlage und Druckkosten lassen eine Flut veröffentlichten Wissens zu, das früher privates Wissen geblieben wäre. Scheinen die Probleme der rechtlichen, politischen und ökonomischen Wissensordnung lösbar, so bleiben die Herausforderungen der Wissenserschließung und der Qualitätssicherung.
Für die Erschließung des im Netz verfügbaren Wissens sind technische Hilfmittel, Suchprogramme oder im Jargon Spider, Agenten oder Knowledge Bots in der Entwicklung,
die mit der Fülle des im Netz neu plazierten Wissens mehr oder minder Schritt halten können.
Der inhaltlichen Qualitätssicherung erwachsen dagegen immer größere Probleme, die wahrscheinlich nur in mehr oder weniger geschlossenen Nutzungsgruppen nach den bisherigen Mustern gelöst werden können. Eine allgemeine Strategie der Qualitätssicherung muß über schlichte rechtliche und formale Regeln hinaus an den kulturellen Ausdehnungen mit ihren Widersprüchen und Reibungen scheitern. In der Universitätsbibliothek erwarten wir nur wissenschaftliches Wissen mit logischer Begründung und klar abgestecktem Geltungsbereich. Im Netz finden wir, wie in einer Bahnhofsbuchhandlung, Wissen jeglicher Art und jeglicher Güte - im globalen Maßstab. Fragen
* der Zusicherung von Qualität,
* der Zusicherung von Authentizität oder * der Zusicherung von Dauerhaftigkeit
sind ungeklärt.
Die Zusicherung von Qualität wird zum Hauptproblem des vernetzten globalen Wissens. Aus der Form der gespeicherten Dokumente läßt sich kaum auf die Qualität ihres Inhaltes schließen, und die Suchmaschinen finden meist das wertvolle, abgesicherte Wissen ebenso schnell wir das problematische. Allein dem Kopf des Endusers fällt die Aufgabe zu, diese aus dem Entstehungskontext gerissenen Mischungen wieder zu entflechten - und die guten Dokumente ins Töpfchen, die schlechten aber ins Kröpfchen zu sortieren.
Zu den schwierigsten Problemen der Archivierung gehört die Zusicherung der Authentizität und Integrität eines Dokumentes, der Garantie, ein durch Speicherung, Übertragung oder Präsentation unverändertes Dokument vor sich zu haben. In der Welt der Druckmedien war dies durch die Komplexität des Druckverfahrens implizit gesichert &endash; wenngleich Fälschungen möglich waren und sind. Auch in der Welt de Rundfunks und Fernsehens hängt die Zusicherung der authentischen Autorenschaft und der integren Ausstrahlung von den technischen Schwierigkeiten der Produktion und Sendung ab. Im Netz ist dies völlig anders. Dokumente können sehr leicht verändert und verfälscht werden - gelegentlich auch in der guten Absicht der Aktualisierung oder Korrektur. Korrekte Kopie und zugesicherte Autorenschaft verlangen fortgeschrittene kryptografische Maßnahmen: Texte und multimediale Dokumente müssen genauso behandelt werden wie elektronische Vertragsunterschriften oder elektronische Geld. Dies scheint technisch machbar. Allein: Es muß auch gegen politische und rechtliche Einwände faktisch umgesetzt werden.
Nicht zuletzt stellen sich Probleme der Speicherdauer. Eine Garantie der Speicherdauer gibt es nur um den Preis dauerhafter Pflege, zu denen selbstverständlich regelmäßige Backups und Kontrollen gehören - aktive Speicherung also. Und auch dann gilt noch immer Jeff Rothenbergs drohende Mahnung: >> Digital Information lasts forever - or five years. Whatever comes first. <<
Zur >Kehr<seite der Speicherung ewiger Werte wird im wörtlichen Sinne die Beseitigung des Abfalls, des Mülls, der durch die Entwicklung überholt ist. > Who reads yesterdays papers? < Es gibt keine einfachen Mechanismen, um die Aktualität von Wissen zu prüfen. Dabei wäre zumindest auf der untersten Stufe eine einfach Abhilfe denkbar: Webseiten könnten mit einem Erstellungsdatum und, wichtiger noch, mit einem Verfallsdatum gekennzeichnet werden. Dies ist technisch leicht möglich &endash; aber noch gibt es dies nicht.
Stärker als die vielleicht ja lösbaren technischen Herausforderungen stellt sich die kulturelle Grundfrage des verteilt und vernetzt gespeicherten Wissens. Globalisierung heißt kulturelle Dekontextualisierung. Wissen entsteht bisher in einer Zeit, an einem Ort, in einer Kultur, das Netz ist aber gleichzeitig und überall. Seine kulturelle Vorgaben sind ihm in Kalifornien und Massachusetts mitgegeben worden. Das Netz reißt Wissen in globalem Maße aus seinen zeitlichen und räumlichen kulturellen Kontexten heraus und stellt Wissen unterschiedlichster Güte und Art beziehungslos nebeneinander. Content und Kontext sind freilich nicht unabhängig voneinander und der Verlust des kulturellen Kontextes devaluiert den Inhalt. Zur Herausforderung für die Erziehung im Cyberspace wird es, diesen kulturellen Färbungen, die nicht fest gegeben sind, aber nur um den Preis einer einheitlichen globalen Kultur eliminierbar wären, kulturelle Entzerrungsfilter anzupassen.
Die Informationsgesellschaft löst die räumlichen Nachbarschaften im Netz auf. So ist auf Grund der Netztopologie Wien im Netz näher an Amsterdam als an Berlin oder Prag. Dies ist vor allem ein Erbe der Telefonleitungen und des Kalten Krieges. Nur hat dies im Zeitalter der elektrischen Paketvermittlung eine neue Qualität erhalten. Nähe im Netz bedeutet bessere Verbindungen, also höhere nutzbare Bandbreite. Dies mag ein vorübergehendes Phänomen sein, doch Ungleichzeitigkeiten der technischen Entwicklung werden lange fortdauern.
Die Tendenz ist trotzdem deutlich: In kommenden Ausbaustufen wird es eine weitgehend gleichzeitige und überall benachbarte Welt geben, ein globales Dorf, um mit Marshall McLuhan zu sprechen.
Doch sei hier eine kritische Anmerkung an diesem Versprechen einer heimatlichen Weltkultur erlaubt. Es geht McLuhan nicht um die Atmosphäre des Kuhdorfs, ums Landhaus oder die Idylle. Seine globales Dorf setzt an der griechischen Agora an, am Marktplatz, den Sokrates nutzte, um seine Mitbürger im mündlichen, direkten Dialog bei der Erkenntnis ihrer Unkenntnis zu helfen und Phaidros die Nachteile der Schrift zu erklären. Für McLuhan ist das Global Village ein Weg zur sekundären Oralität, die Rückkehr aus der Welt dominanter Schriftkultur in eine neue elektrisch vermittelte Redekultur, die dem Literarturwissenschaftler McLuhan als Rückkehr in die antike Heimat des europäischen Geistes erscheint.
Dies in das Netz zu projizieren, scheint mir freilich allzu kühn. Es ist vielleicht angemessener, von einer globalen Welt der Vororte und Vorstädte zur reden, von einem Global Suburbia. Welche Regeln und wessen Regeln werden in in dieser globalen Neighborhood herrschen?.
Norbert Bolz, Christoph Tholen, Friedrich Kittler (Hrsg.), Computer als Medium, München: Wilhelm Fink Verlag, 1994
Wolfgang Coy, Cultural Stability and Technological Change. In: Information Processing '94 (Proc. IFIP World Computer Congress). Amsterdam: North Holland/Elsevier, 1994
Ivan Illich, Im Weinberg des Textes, Frankfurt/Main, Luchterhand Literaturverlag, 1990
Herbert Marshall McLuhan, Die Gutenberg Galaxis, Bonn, Paris, Reading (Mass.): Addison Wesley, 1995 (Engl. Original: Toronto: Toronto University Press, 1962)
Ted Nelson, Computer Lib, 2.Aufl. Seattle: Microsoft Press 1987, (Original 1974) Helmut Spinner, Die Wissensordnung, Opladen: Leske+Budrich, 1994
Martin Warnke, Wolfgang Coy & Christoph Tholen (Hrsg.): HyperKult: Geschichte, Theorie und Kontext digitaler Medien. Basel: Stroemfeld Verlag, 1997
Prof. Dr. Wolfgang Coy
Humboldt-Universität zu Berlin
Institut für Informatik, Informatik in Bildung & Gesellschaft
Unter den Linden 6
D-10099 Berlin
Tel +49 30 2018 1303
Fax +49 30 2018 1304
coy@informatik.hu-berlin.de