| Home | Back to List of Articles |
 
 
 
 
 
 

Offene Quellen und öffentliches Wissen

Volker Grassmuck
 

(Vortrag gehalten auf dem Moskauer Medienkongress 2000 "Internet: Konzeptionen -- Perspektiven", org. Goethe-Institut Moskau und Universität für Völkerfreundschaft Moskau, 19.-21.1.2000)
 

 
 

Meine sehr geehrten Damen und Herren,

ich möchte über eine Erscheinungsform der Wissensordnung sprechen, die seit etwa zwei Jahren Furore macht: die der freien Software oder, mit einer etwas anderen Konnotation, der Open-Source-Software. Als Hintergrund werde ich kurz auf die Wissensordnung der Wissenschaften und die Geschichte der Software eingehen, um dann die Mechanismen der freien Software, die Beteiligten und die Werte, die sie hochhalten, zu beleuchten. Ihr großer Gegenspieler, Microsoft, und seine mögliche Zukunft wird dann zur Sprache kommen, bevor ich abschließend an vier Punkten die Gefahren für diesen Prozeß des öffentlichen Wissen bespreche und die Möglichkeiten, ihn zu stärken.
 
 

# fdisk /internet(1)
Um den Boden dafür zu bereiten, muß ich etwas ausholen. Die klassische Wissensordnung meint die akademische Wissenschaftsverfassung, wie sie in der Gelehrtenrepublik des 19. Jahrhunderts entstanden ist und sich in der Forschungsgemeinschaft des 20. fortschreibt. Konstitutiv für die Wissenschaftsverfassung Humboldtscher Prägung und weiterentwickelt von Weber, Popper, Merton, Spinner usw. sind 4 große Abkopplungen: Tatsächlich wurde die Grundlagenforschung für die neue Ordnung digitaler Medien, also der Computer und Datennetze, mit öffentlichen Mitteln betrieben. Im Falle des Internet stammten sie von den US-Wissenschaftsbehörden ARPA (die Advanced Research Projects Agency des US-Verteidigungsministeriums) und NSF (National Science Foundation). Entsprechend war das Internet eine öffentliche Infrastruktur der Wissenschaftsgemeinde. Die "Acceptable Use Policy" der NSF untersagte bis Ende der achtziger Jahre jegliche kommerzielle Nutzung, wie Werbung oder Verkauf von Waren im Internet. Aber wer erinnert sich im Zeitalter der dot-com-economy noch an die guten alten Tage?

Aus dieser Zeit und aus diesem Wissensmilieu stammt der Grundsatz der Wissensordnung digitaler Medien, den einige Unverdrossene auch heute im Zeitalter von eCommerce und Data-Mining aufrecht erhalten: Information wants to be free.

Das Wunderbare an Information im Gegensatz zu materiellen Gegenständen ist, daß ich die Information, die ich habe, an Sie, an 100, an 100.000 andere Menschen verschenken kann, ohne daß sie mir danach fehlt. Die vorangegangenen Wissensordnungen hatten ihre Materialität und ihre Leiblichkeit. Datenträger (also Bücher, zumindest bis zur Erfindung neuer Papier- und Drucktechniken Ende des 19. Jahrhunderts) und gute Lehrer waren Mangelware. Das digitale Wissen hat natürlich immer noch einen physikalischen Träger, doch innerhalb des Internet kann es -- der Sache nach -- frei fließen, es kann beliebig kopiert und modifiziert werden. Wissen gibt es im Überfluß.

Seit der Errichtung des ersten CIX (Commercial Internet Exchange) 1989, seit der Lancierung des World Wide Web 1991 und besonders seit der Verkündigung der National Information Infrastructure-Vision durch US-Vizepräsident Al Gore im Herbst 1993 beginnt die kommerzielle Erschließung des Internet. Für diese neuen Nutzer gibt es nur eine Information, die frei und möglichst weit zirkulieren soll, und das ist Werbung. Alle andere Information ist für sie Ware. Um nun in diesem promiskuitiven Milieu eine Information (z.B. Börsendaten, Lehrmaterial, Musikstücke) derjenigen und nur derjenigen zugänglich zu machen, die dafür bezahlt hat, müssen in das Internet zusätzliche, aufwendige Schutzmechanismen, Zonen mit Zugangskontrollen und kryptographisch abgesicherte Intellectual Property Management-Systeme eingezogen werden. Die sog. Rechteindustrie (Bertelsmann, Sony, Time-Warner usw.) arbeitet nach Kräften daran, ihre Ressourcen zu schützen.

Vor dem Hintergrund dieser Entwicklungen der vergangenen zehn Jahre ist das Auftauchen der freien Software umso verblüffender. Ohne wirklich selbst akademisch zu sein, beerbt sie die Wissenschaftstradition des freien Austausches. Diese Software, wie das Betriebssystem Linux oder der Webserver Apache, wird von Gruppen locker zusammenarbeitender vermeintlicher Hobbyisten entwickelt. Und diese Gruppen verkaufen keine Produkte, sondern verschenken eine Teilhabe an ihrem gemeinsamen Software-Entwicklungsprozeß. Während die Industrie den Schutz ihres exklusiven geistigen Eigentums immer weiter ausbaut, liegt die Stärke des alternativen Modells darin, den geistigen Reichtum frei mit aller Welt zu teilen und gemeinsam fortzuschreiben.

Als ich überlegte, wie ich Ihnen in der Kürze der Zeit mit möglichst kräftigen Pinselstrichen ein Bild vermitteln könnte, floß mir das Wort "Noosphäre" in die Tastatur. Ein schönes Wort, doch mir kamen Bedenken, daß es unter gewissen Abnutzungserscheinungen leiden könnte. Ich bin daraufhin noch einmal in den Text von Pierre Teilhard de Chardin gegangen und war wieder verblüfft, mit welcher Visionskraft dieser Jesuitenpater 1947, als es nicht einmal eine Handvoll Computer auf der Welt gab und von ihrer Vernetzung noch keine Rede sein konnte, voraussah, was uns heute deutlicher vor Augen steht. (Der vorangegangene Vortrag von Herrn Alexander Drikker zu der zeitgleichen und gleichermaßen visionären Arbeit von Norbert Wiener bekräftigt mich darin, wie wertvoll es ist, immer wieder zu den Anfängen des digitalen Zeitalters zurückzukehren.)

Bei der Noosphäre handelt es sich um eine planetare "Hülle aus denkender Substanz ... im Ausgang und oberhalb der Biosphäre".(2) Das "radiophonische und televisionelle Nachrichtennetz [verbindet] uns alle schon jetzt in einer Art 'ätherischem' Mitbewußtsein. Vor allem denke ich hier aber an den fallenreichen Aufstieg dieser erstaunlichen Rechenmaschinen, die mit Hilfe von kombinierten Signalen in der Größenordnung von mehreren hundertausend in der Sekunde, ... die Denkgeschwindigkeit, also einen wesentlichen Faktor, in uns erhöhen." (212 f.) Teilhard sieht darin "die Grundzüge einer besonderen Art von Super-Gehirn, das fähig ist, sich zu steigern, bis es irgendeinen Super-Bereich im Universum und im Denken meistert!" Die Noosphäre ist ein Gehirn aus Gehirnen. Doch wird der Einzelne darin aufgehoben. Durch "Gewölbeeffekt" entsteht eine Sphäre gegenseitig sich stützender Bewußtheiten als Sitz, Träger und Organ" des Super-Gehirns. Alles geht vom Individuum aus, "doch alles vollendet sich oberhalb des Individuums." (224)

Man muß Teilhard nicht in die schwindelerregenden Höhen des Gottesproblems folgen, um zu sehen, daß das Internet viele der Qualitäten seiner Noosphäre verkörpert. Und ein Beispiel dafür, was die Verdichtung und die freie Assoziation von vielen, was ein "'ätherisches' Mitbewußtsein", was das "Gehirn der Gehirne" zustande bringen kann, ist eben die freie Software.
 
 

# make world(3)
Bis in die siebziger Jahre hinein waren Computer Großrechner und Workstations. Software wurde als eine Art Bedienungsanleitung vom Hardware-Hersteller dazugeliefert. Die wichtigsten Programme schrieben die Anwender selbst. Software-Unternehmen gab es schlicht noch nicht.

Anfang der siebziger entwickelten Ken Thompson und Dennis Ritchie an den AT&T Bell Labs als Reaktion auf ein Vorläuferprojekt namens Multics das Betriebssystem Unix. Da AT&T wegen seines Monopols in der Telekommunikation Kartellauflagen unterstand, durfte es Unix nicht vermarktet, und gab es stattdessen für $50 an Universitäten ab, einschließlich des Quellcodes.

Quellcode ist der von Menschen in einer höheren Programmiersprache, wie Pascal oder C, geschriebene Ausgangstext eines Programms. Er wird einem Compiler übergeben, der ihn in eine maschinennähere Form, den Objektcode übersetzt. Diese binäre Form des Programms erst veranlaßt den Rechner, für den Menschen (meist) sinnvolle Zeichenoperationen auszuführen. Kompilierung ist ein im wesentlichen irreversibler Prozeß. D.h., aus dem Binärcode läßt sich allenfalls mit großen Anstrengungen, die denen der ursprünglichen Codierung nahekommen, der Quellcode rekonstruieren. Proprietäre Software wird nur in einer für eine bestimmte Prozessorplattform vorkompilierten Form ausgeliefert, ohne Quellen. Das Wissen darüber, wie ein solches Black Box-System macht, was es macht, ist damit für alle praktischen Belange effektiv geschützt.

Für reine Anwender mag eine Black Box zunächst keine wirkliche Qualitätseinschränkung bedeuten, für Entwickler und Systemadministratoren macht es ihre Arbeitsumgebung zu einer Welt voll Mauern und verbotener Zonen. Für Anpassung, Integration, Fehlerbehebung und Ergänzung müssen sie Veränderungen an der Software vornehmen, und das ist nur am Quelltext möglich. Freie, quelloffene Software bietet ihnen diese Möglichkeit. Bei proprietärer Software bleibt ihnen nur, auf die Unterstützung durch den Hersteller zu hoffen oder sich durch umständliches und nur in engen Grenzen legales Reverse Engineering selbst zu behelfen.

In der freien und der proprietären Software stehen sich also zwei grundlegend verschiedene Auffassungen über das Wissen gegenüber. Hier Quelltext als ein in geschlossenen Gruppen, unter Nicht-Weitergabebedingungen gefertiges Master-Produkt, das in geschlossener, binärer Form als Ware vermarktet und mit Hilfe von Urheberrechten, Patenten, Markenschutz und Kopierschutzmaßnahmen vor Lektüre, Weitergabe und Veränderung geschützt wird. Dort Quelltext als in einer offenen, nicht-gewinnorientierten Zusammenarbeit betriebener Prozeß, bei dem eine ablauffähige Version immer nur eine Momentaufnahme darstellt, deren Studium, Weitergabe und Modifikation die Lizenzen der freien Software ausdrücklich ermutigen. Hier eine Ware, die dem Konsumenten vom Produzenten verkauft wird. Dort ein kollektives Wissen, das allen zur Verfügung steht.

Zurück zu Unix. An vielen Universitäten in der ganzen Welt wurde Unix installiert, für unterschiedliche Zwecke angepaßt und weiterentwickelt. Die Korrekturen und Ergänzungen wurden an der University of California at Berkeley gesammelt, auch dort nach Kräften erweitert, z.B. durch die Integration des Internet-Protokolls, und als BSD-Unix (Berkeley Software Distribution), an die Gemeinde der Unix-Nutzer zurückgegeben -- ganz nach dem klassischen wissenschaftlichen Modell.

Dann wurde AT&T aufgeteilt. Die daraus hervorgegangene Software-Firma sah sich jetzt in der Lage, Unix zu vermarkten, und sie tat das in Form von Binärcode und gegen erhebliche Gebühren. Diese Privatisierung und Schließung einer Software, an der zahllose Leute in der ganzen Welt mitgearbeitet hatten, brachte einen Informatiker am MIT, Richard Stallman, derart auf, daß er 1984 das GNU-Projekt startete. Das Akronym steht für "GNU's not Unix", doch genau das ist sein Ziel: ein Unix zu schreiben, das keine einzige Zeile von AT&T geschützten Code enthält und weiterhin in freier Kooperation weiterentwickelt werden kann.

GNU ist das erste 'bewußte' freie Software-Projekt. Mit seinen Tools ist es Geburtshelfer aller folgenden Projekte. Auf die wichtigste Innovation Richard Stallmans, die Lizenz, unter der GNU-Software verbreitet wird, komme ich noch zu sprechen.

Anfang der 80er Jahre geschah noch etwas anderes, das für unsere Geschichte wichtig ist. IBM brachte den IBM-PC heraus und nahm ihn gleichzeitig nicht ernst. Statt selbst ein Betriebssystem dafür zu schreiben, heuerte es eine kleine Firma namens Microsoft an. Außerdem veröffentlichte IBM die Spezifikationen der Hardware-Architektur für diesen IBM-PC. Ob es ebenfalls an der Verkennung des PC lag, an einem Zufall, einer subversiven Aktion oder an einer glücklichen Fügung des Schicksals, auf jeden Fall hat IBM mit der Veröffentlichung sich selbst Konkurrenz und den Computer zur Massenware gemacht. Die Branche zollt ihrem ehemaligen Führer Ehre, indem noch jahrelang Intel-Rechner aller Hersteller dieser Welt als 'IBM-Kompatible' bezeichnet wurden.

Ein Industriestandard, unabhängig von einem einzelnen Unternehmen war geschaffen. Computer wurden billig genug für den Privatgebrauch. Im Gefolge wurde Software ebenfalls zu einem Massenmarkt. Software-Firmen wie Microsoft, Lotus oder Corel boten jetzt Betriebssysteme, Netze und Anwendungen als Standardware im Regal an.

Ende 1989 wollte ein Informatik-Student der Universität Helsinki ein Unix auf seinem PC zuhause haben. Er fand kein geeignetes und begann, selbst einen Betriebssystems-Kernel zu schreiben. Die erste Version, noch eine rohe Skizze, legte er auf einen offen zugänglichen FTP-Server und gab die Adresse in einer Newsgroup kund, in der über Betriebssysteme diskutiert wurde. Sogleich fanden sich Mitarbeiter. Die Werkzeuge aus dem GNU-Projekt (C-Compiler, Linker, Editoren usw.) taten ihnen gute Dienste. Und gut ein Jahr später war die erste brauchbare Version des Linux-Kernels fertig. Heute gibt es schätzungsweise 20 Mio Installationen weltweit. Linus Torvalds ist der unangefochtene Star der freien Software. GNU/Linux gelangte durch den Film Titanic zu Hollywood-Ruhm, dessen Computergraphiken auf einem Linux-Cluster gerechnet wurden. Sogar in der Kunstwelt fand es Anerkennung, als dem Projekt der Prix Ars Electronica 1999 (in der Kategorie ".net") verliehen wurde.

Seither sind zahlreiche weitere Projekte der freien Software dazugekommen. Hier einige Beispiele: Apache ist der mit über 60% am weitesten verbreitete Web-Server im Internet. Perl ist neben Tcl und Python die wichtigste Skriptsprache, das "Universalklebeband" des Webs, das Eingabeformulare, Datenbanken, Webseiten usw. miteinander verbindet. XFree86 ist die Intel-Version des X-Window-Systems und Basis der graphischen Benutzeroberflächen für Linux, wie KDE und Gnome. Und, um ein Anwendungsprogramm zu nennen, Gimp ist ein Bildbearbeitungsprogramm ähnlich Photoshop.

Einige tausend solcher Pakete werden in sogenannten Distributionen (Red Hat, SuSE, Debian, Slackware, Corel, usw.) zu einem kompletten System zusammengestellt. Eine Linux-Distribution enthält Linus Torvalds' Kernel, die GNU-Tools -- weshalb Linux korrekterweise "GNU/Linux" heißt --, graphische Benutzeroberflächen und diverse Awendungen, darunter, je nach Stil einer Distribution, auch proprietäre Software (z.B. StarOffice oder WordPerfect). Das ganze wird mit einem Installationsprogramm und einem Handbuch versehen und auf CDs gebrannt. Schließlich erhält man bei den kommerziellen Distributoren für den Preis von knapp hundert Mark auch noch 60 Tage Installations-Support. Wohlgemerkt, man bezahlt hier nicht für die Software selbst, die von den Servern der Projekt ebensogut kostenlos zu beziehen ist, sondern für den Mehrwert, für die Dienstleistungen, die die Distributoren hinzufügen.

Wie entsteht nun freie Software, wer sind die Leute dahinter und warum machen sie das? Am Anfang steht meistens ein Problem. Brent Chapman wurde 1992 zum Administrator von 17 technischen Mailinglisten. Mit der damals verfügbaren Software mußte der Listenverwalter jede Subskription und Entsubskription von Hand eintragen, was eine Menge Zeit kostete. Deshalb begann er Majordomo zu entwickeln, der heute am weitesten verbreitete Mailinglisten-Server im Internet. Tim Berners-Lee wollte 1990 die Informationsflut, die am CERN produziert wird, in den Griff bekommen und begann, das World Wide Web zu entwickeln. Linus Torvalds wollte ein Unix auf seinem PC laufen lassen und entwickelte den Linux-Kernel. In anderen Fällen gibt es ein Projekt, das von seinen Initiatoren verwaist wurde, so z.B. der NCSA-Web-Server, um dessen Weiterentwicklung sich die Apache-Gruppe bildete.

Freie Software entsteht nicht auf Anweisung eines Vorgesetzten oder Auftraggebers. Sie ist eine eigenmotivierte Tätigkeit, angetrieben von dem Wunsch, ein vor der Hand liegendes Problem bei der Arbeit oder Forschung zu lösen.

All diese Männer der ersten Stunde -- es scheint tatsächlich nicht eine einzige Frau unter ihnen zu geben -- veröffentlichten ihre Projekte frühzeitig, in der Annahme, daß sie nicht die einzigen sind, die dieses Problem haben, und daß es andere gibt, die ihnen bei der Lösung helfen würden.

Meist findet sich schon bald nach der Erstveröffentlichung eine Gruppe von Mitstreitern zusammen, die ihre Kenntnisse und Zeit in das Projekt zu investieren bereit sind und die, wenn die Zahl der Beteiligten wächst, als Maintainer eine koordinierende Verantwortung für Teile des Projekts übernehmen. Es bildet sich ein Steuerungsgremium, das Core-Team, das Entscheidungen fällt über die allgemeine Richtung des Projekts, Fragen des Designs und interessante Probleme, an denen weitergearbeitet werden soll. Beim Apache umfaßt es derzeit 22 Leute aus sechs Ländern. XFree86 hat ein Core-Team von elf Personen und eine Community von etwa 600 Entwicklern. Debian-GNU/Linux umfaßt etwa 500 Beteiligte.

Die Projektleitung beruht auf einer Meritokratie, d.h., wer viel und anerkannte Arbeit leistet, kommt ins Core-Team. Wie werden Entscheidungen gefällt? Das Credo der Internet-Entwicklergemeinde lautet: "We reject: kings, presidents and voting. We believe in: rough concensus and running code."(4) Die gleiche Philosophie herrscht auch in den freien Software-Projekten. Änderungen werden nur vorgenommen, wenn es keine Gegenstimmen gibt.

Es gibt viele Formen der Mitarbeit: Testen der Software und Einsenden von Bug-Reports, das Beheben kleinerer Fehler durch einen Patch (eine 'Software-Flicken'), Feature-Requests (Vorschläge für neue Funktionen), größere Funktionserweiterungen, das Schreiben von Dokumentation.

All diese Leute sind Freiwillige. Es gibt keine feste Aufgabenverteilung. Leute machen das, was sie interessant finden. Entgegen einer verbreiteten Auffassung, daß vor allem Studenten mit viel Freizeit sich für freie Software engagieren, ist die Bandbreite erheblich größer. Bei XFree z.B. reicht das Altersspektrum von 12 bis Ende 50. Viele arbeiten als Programmierer und entwickeln in ihrer Freizeit. Motiv ist in allen Fällen eine Faszination und ein Spaß an der Sache, der Lerneffekt dabei und die Anerkennung, die sie von der Community dafür erhalten. In zunehmendem Maße haben Leute auch im Rahmen ihrer Anstellung bei einem ISP, einem Hardware-Hersteller oder einem Distributor die Gelegenheit, an freier Software zu arbeiten. Bei allen, die sich in der freien Software einen Namen gemacht haben, stehen mittlerweile die Firmen Schlange, um sie einzustellen.

Möglichkeitsbedingung für die Kooperation, in der freie Software entsteht, ist das Internet. Mit der zunehmenden Verbreitung des Internet wächst auch die Zahl derjenigen, die an solchen Projekten mitarbeiten. Die zentralen Kommunikationsmittel für die weltweit ortsverteilte Kooperation sind Email, genauer Mailinglisten, und Newsgroups. Die Projekte präsentieren sich und ihre Ressourcen auf Websites. Der gesammelte Quellcode, der bei größeren Projekten mehrere Millionen Zeilen umfaßt, liegt auf einem sog. CVS-Server vor, einem Concurrent Versions System. CVS ist ein mächtiges Werkzeug für die Revisionsverwaltung, das es Gruppen von Entwicklern erlaubt, die gleichzeitige Arbeit an denselben Dateien zu koordinieren und einen Überblick über die Veränderungen zu behalten. Ein Entwickler kann ein Modul aus dem Source-Baum auschecken, es verändern und zurückschreiben. Die vorangegangenen Versionen bleiben erhalten, sodaß man jederzeit zurückgehen kann. In regelmäßigen Abständen wird der Source-Baum eingefroren, alle Neuerungen gründlich durchgetestet und schließlich mit einer neuen Versionsnummer offiziell freigegeben (released).

Das mag als ein Einblick in den Bereich der Noosphäre, in dem die freie Software wächst und gedeiht, genügen. Bislang habe ich von den Entwicklern gesprochen, doch auch für reine Anwender bietet freie Software erhebliche Vorteile gegenüber proprietärer. Die wichtigsten habe ich hier aufgezählt:

# set preferences
Werte und soziale Beziehungen, über die ich jetzt sprechen möchte, werden in unserer Wissensordnung weitgehend durch Gesetze und Verträge geregelt. Daher muß ich einen Abstecher auf juristisches Territorium unternehmen.

Bei der Installation einer Software erscheint auf einem der ersten Bildschirme ein langer Lizenztext. Darin steht, daß Sie das Programm keineswegs erworben haben, sondern nur ein Nutzungsrecht daran, daß Sie keine Kopien an Freunde weitergeben dürfen, daß Sie nicht versuchen werden, es zu reverse engineeren, daß der Hersteller keinerlei Haftung und Gewährleistung übernimmt und dergleichen mehr. Diese Texte liest normalerweise kein Mensch, tatsächlich schließt man jedoch durch das Anklicken der Option "Akzeptieren" einen Vertrag. Die gleiche Prozedur findet sich auch bei freier Software, nur daß die Vertragsbedingungen etwas anders lauten.

Richard Stallman hat viel Software geschrieben, z.B. GNU-Emacs, das 'Schweizermesser' unter den Editoren. Seine folgenreichste Erfindung jedoch ist eine Lizenz. Die GNU General Public License (GPL) ist der größte Hack der Wissensordnung seit britische Verlegergilden das Urheberrecht erfanden. Sie schreibt drei Freiheiten fest:

und eine Verpflichtung: Richard Stallmans Ziel dabei war es nicht, Software einfach zu verschenken (wie es bei Freeware oder Public Domain Software geschieht), sondern systematisch einen Bestand an nützlicher Software aufbauen, der für alle Zeiten (d.h. derzeit 95 Jahre nach Tod der Autoren) frei bleiben wird. So entsteht seit 1984 eine freie Parallelwelt zur kommerziellen Software, und es ist heute möglich, alles mit einem Computer zu tun, was man möchte, ohne ein einziges proprietäres Programm anzufassen.

Das klingt nach einem ideologischen, utopistischen Programm. Tatsächlich sind die Beweggründe dahinter ganz pragmatisch: Techniker wollen Dinge erledigen und Probleme lösen, ohne daran durch legalistische Mauern gehindert zu werden. Sie hassen Redundanz, wenn jemand anderes ein Problem gelöst hat, wollen sie nicht die gleiche Arbeit noch einmal machen müssen. Sie wollen ihr Wissen mit anderen teilen und von anderen lernen, und nicht durch Nicht-Weitergabevorschriften daran gehindert werden.

Die didaktischen Qualitäten freier Software hatte ich bereits kurz angesprochen. Der Computer als 'antwortende Maschine' unterstützt auf ideale Weise ein autodidaktisches Lernen. Man tippt einige Zeilen Quellcode ein, kompiliert sie, läßt sie ablaufen und bekommt ein sofortiges Feedback über die Wirkung.

Quellcode und Objektcode gehören auf 'natürliche' Weise zusammen, so wie jeder Autofahrer unter die Kühlerhaube seines Wagens schauen und den Motor tunen kann. Ein anschauliches Beispiel erhalten Sie, wenn Sie jetzt in Ihrem Browser den Menüpunkt "View Source" (deutsch: "Ansicht/Seitenquelltext") anwählen. Sie sehen dann die HTML-Auszeichnungen, die die Darstellung und die Funktionalitäten dieser Web-Seite generieren. Diese Transparenz der HTML-'Werke' anderer erzeugt einen Lerneffekt, der wesentlich zu der Fülle von privaten Homepages im Web beigeträgt. Stellen Sie sich nun vor, so einfach könnte man sich das Innenleben einer jeden Black Box anzeigen lassen, die unser Leben zunehmend bestimmen.

Freie Software zahlt sich aus. Auch wenn sie selbst kostenlos ist, ist die total-cost-of-ownership natürlich nicht Null. Kosten für Integration, Wartung, Schulung usw. fallen auch hier an. Doch wiederum macht die Quelloffenheit allen Unterschied. Der Systemadministrator der Tageszeitung taz berichtete von einem typischen Fall: Als sie ihr System von Sun-OS auf Solaris umstellten, sagte ihnen der Hersteller der ISDN-Routing-Software, daß ihre ISDN-Karten nicht mehr von seiner Software unterstützt werden und sie daher neue Karten kaufen müßten. Dabei ging es um Investitionskosten in Höhe von 100.000 DM. Hätte der taz-Administrator den Quellcode gehabt, hätte er die Anpassung selbst vornehmen und der Zeitung viel Geld sparen können.
 
 

MS> (a)bort, (r)etry, (i)gnore?
Am Anfang steht ein Offener Brief und ein Zufall. 1976 beklagte sich Bill Gates in einem Open Letter to the Hobbyists: "Ihr klaut unser Altair-BASIC [die Programmiersprache war damals das einzige Produkt der noch sehr kleinen Firma Microsoft] und verhindert damit, daß gute Software geschrieben wird. Für Hardware muß gezahlt werden, aber Software ist etwas, was geteilt werden kann. Wovon werden wir dann bezahlt?" Hier schieden sich also Software als kollektiver Prozeß und Software als Ware.

Wenn Gary Kildall von Digital Research nicht zufällig gerade mit seinem Privatflugzeug unterwegs gewesen wäre, als die IBM-Vertreter nach einem Betriebssystem für ihren PC suchten, hätte die Welt den Computer nicht auf MS-DOS betreten, sondern auf CP/M (damals das am weitesten verbreitete Betriebssystem für 8-Bit-Rechner). Wie es kam, erhielt Microsoft den Zuschlag und erbte gleichsam IBMs Monopol, das in derselben Bewegung zuende ging.

Heute läuft auf 90% der PCs dieser Welt ein Microsoft-Betriebssystem. Die Strategien, wie Microsoft seine Vormachtstellung ausbaut und Marktchancen anderer Betriebssysteme verhindert, sind im laufenden Kartellverfahren ausgeleuchtet worden. Dazu gehören Knebelverträge mit Hardware-Herstellern, Kontrolle der Bedingungen für zertifizierte Software-Entwickler und Computerhändler, räuberische Preispolitik, Aufkaufen von Konkurrenten, Bundling und Integration anderer Software in Windows (die Integration des Browser "Internet-Explorer" in Windows98 war einer der Auslöser des Verfahrens), gezielte Inkompatibilitäten, Ausweitung des Monopols auf andere Bereiche wie Content und schließlich das allseits beliebte FUD (Fear Uncertainty Doubt): "Mache den Leuten klar, daß 'da draußen' ein Krieg tobt, ein babylonisches Elend herrscht und nur der dominante Standard die beste Lösung bietet. Wer abweicht, wird mit Inkompatibilität bestraft. Wer mitmacht, kann nichts falsch machen."(5)

Am Ende stehen verschiedene Optionen für die Lösung des Microsoft-Problems.

abort
Hierfür könnte das Pharmaunternehmen Monsanto Pate stehen, das im genmanipulierenden Agrobusiness eine ähnliche dominante Stellung hatte. Monsanto verfuhr mit den "offenen Standards" der Landwirtschaft auf ganz ähnliche Weise, wie Microsoft mit denen in der Software, z.B. Java: aneignen, "verbessern", bundlen mit anderen Produkten (Düngemitteln, Pestiziden), und flächendeckend vermarkten. Monsanto ist, nicht zuletzt wegen einer weltweiten Protestbewegung, am Warenmarkt und an der Börse gescheitert. Das Unternehmen sieht sich zur Fusion mit einem Konkurrenten (Pharmacia & Upjohn) gezwungen. Der Markenname "Monsanto", Inbegriff allen gentechnologischen Übels und hausintern zu "Mon Satan" umgespöttelt, wird verschwinden.(6) Dies ist ein wunderbares Beispiel dafür, was passieren kann, wenn sowohl die "Entwickler" (= Bauern) als auch die "User" (= die Endverbraucher) sagen: 'wir haben keinen Lust auf euren Mist.'

retry
Die Aufspaltung von Microsoft ist die wahrscheinlichste Lösung, wie Mitte Januar das US-Justizministerium durchsickern ließ. Verschieden Varianten werden gehandelt: eine horizontale Aufteilung in mehrere 'Baby-Bills';(7) eine vertikale in drei Firmen für Betriebssysteme, Applikationen und Web, oder in zwei konkurrierende Betriebssystems-Firmen und eine für Anwender-Software.

Eine plausible, aber weniger wahrscheinliche Lösung sieht vor, daß die Microsoft-Betriebssysteme zu einem öffentlichen Gut erklärt werden, und Microsoft als Applikations-Software-Unternehmen weitergeführt wird. Neal Stephenson argumentiert (in seinem Aufsatz "In the beginning was the Command Line") überzeugend -- wie ich es hier auch versucht habe --, daß Betriebsysteme Arbeitsumgebungen und Werkzeuge von Entwicklern und keine Konsumprodukte sind, und sie daher ihrer Natur nach frei zu seien haben.

ignore
Die dritte Variante geht davon aus, daß die Tage von Microsoft auch ohne Eingriffe gezählt sind. Schon jetzt schneidet Linux in den Server-Markt von Windows-NT. Die Mobiltelefon-Hersteller haben für ihre Geräte Linux über Windows-CE gewählt. Web-Geräte und andere embedded systems könnten dieser Entscheidung folgen.

Die Vorstellung, daß Anwender und Entwickler Microsoft einfach links liegen lassen könnten, führt mich zu der etwas despektierlichen Frage, ob Open Source das bessere Microsoft sei.

Ich habe bislang von 'freier Software' gesprochen. Das hat auch Eric Raymond in seinem berühmten Aufsatz "The Cathedral and the Bazaar" getan, bis zum Februar 1998, als er es durch den Ausdruck 'Open Source Software' ersetzte. 'Free' ist nicht nur zweideutig (Freibier und Freie Rede), sondern in den USA offenbar zu einem unanständigen Wort geworden. Jedenfalls war es erklärtes Ziel von Raymonds Wende, das irgendwie kommunistisch klingende 'Free Software' von Richard Stallman durch einen Begriff zu ersetzen, der auch in den Vorstandsetagen schmackhaft gemacht werden kann.

Der begrifflichen Wende folgte die des Marktes. Zu den ersten Ereignissen gehörte noch 1998 der Deal zwischen IBM und der Apache-Gruppe, die damals noch gar keine Rechtsform hatte. Die IBM-Anwälte fragten entsetzt, ob sie denn einen Vertrag mit einer Website schließen sollten. Die Phase der Unschuld ist lange vorbei. Spätestens nach dem überaus erfolgreichen Börsengang von Red Hat im vergangenen August, strömt das Geld in alles, was einen Pinguin(8) trägt. Anfang Dezember brach VA Linux Systems alle Rekorde, als die $30-Aktie am ersten Tag für ganze $300 gehandelt wurde (die Höchstmarke unter allen IPOs stand bei 606% am ersten Tag, VA trieb sie auf 697.50%). Vor einigen Tagen zog TurboLinux Investitionen in Höhe von $50 Mio von Dell, Compaq, Toshiba, NEC u.a. an, nachdem zuvor bereits Intel zugeschlagen hatte. Intel hat ebenfalls in Red Hat und SuSE investiert. Caldera Systems bekam $30 Mio und meldete sein IPO an. LinuxCare bekam $32 Mio von Sun.

Die Volunteers ziehen weiter zu neuen Fronten. Die Industriegrößen und die Venture Capital-gestützten Start-Ups übernehmen die Verwertung und Pflege der offenen Bestände.
 
 
 

# reboot
 
Eine Installation endet mit einem Neustart. Sie können jetzt, wie es in der Hacker-Ethik heißt, mit Ihrem Computer "Kunst und Schönheit" schaffen.

Die Aussage, Open Source Software könnte das neue Microsoft werden, das neue dominante Modell in einer Wirtschaft aus "virtuellen Unternehmen", bevölkert von Richard Sennetts "flexiblen Menschen", ist natürlich polemisch gemeint. All das kann sich ohnehin nicht messen mit den mehr als $6 Milliarden Einnahmen, die Microsoft im vergangenen Jahr erzielte. Es geht mir nicht darum, gegen das Geldverdienen zu wettern. Es geht mir um Werte. Daß mit einem Mal hunderte Millionen Dollar in einen sozialen, technischen, kreativen Prozeß fließen, in dem Geld bislang nur eine sehr eingeschränkte Rolle spielte, wird ihn ohne Frage verändern.

Wie werden wir beurteilen können, ob die aktuelle Entwicklung der freien Software -- und der Gesellschaft als ganzer -- genützt oder geschadet haben wird? Dazu zum Abschluß einige Überlegungen, wie die Noosphäre erweitert werden kann und wo Gefahren drohen.

Die größte aktuelle Bedrohung der freien Software geht von den Bemühungen aus, Software in Europa patentierbar zu machen. Software unterliegt, wie jedes andere Werk, dem Urheberrechtsschutz. Seit 1985 ist es in den USA und inzwischen auch in Japan möglich, Patente darauf anzumelden. Die Folge war eine immer noch anwachsende Prozeßflut. Aktuelles Beispiel: Amazon.com hat ein Breitbandpatent angemeldet auf den "1-Klick-Warenkorb" und seinen Konkurrenten Barnes & Noble wegen Verstoßes verklagt. Ähnliche Geschäftsprozeßlösungen finden sich in vielen eCommerce-Systemen. Alle Betreiber müßen jetzt mit einer Abmahnung rechnen. Die Quelloffenheit freier Software macht es Unternehmen sehr einfach, auf einzelne Passagen zu zeigen und zu behaupten, sie entsprächen von ihnen patentierten Verfahren. Das könnte das Aus für viele freie Projekte bedeuten, aber auch kommerziellen Software-Häusern das Leben schwer machen. Im Juni diesen Jahres wird ein Ausschuß der EU erneut zusammenkommen, um über die Einführung von Software-Patenten zu beraten. Noch gibt es leider viel zu wenig Öffentlichkeit für dieses Thema.

Ein verwandter Punkt betrifft die 'Architektur' des Internet. Der renommierte Cyberlaw-Vertreter Larence Lessig von der Harvard Law School warnt davor, daß der Code des Cyberspace, also die Protokolle, Sicherheitsverfahren und Betriebssysteme, die diesen Raum definieren, zu einer Art privatisiertem Recht wird. Lessig weist darauf hin, daß ein Richter in einem Urheberrechtsverfahren eine Güterabwägung vornimmt, zwischen dem Schutz des geistigen Eigentums und seinen Grenzen, z.B. dem fair use, der die Verwendung von geschütztem Wissen in der Bildung erlaubt. Ein Intellectual Property Management-System codiert nun Texte, Bilder, Musik derart, daß es technisch nur einem Käufer möglich ist, sie zu betrachten. Der Verfassungswert der freien Verwendbarkeit von Wissen im Unterricht wird hier also technisch ausgehebelt. Die Balance zwischen Privateigentum und Gemeinnutzen, die das demokratisch verfaßte Recht vorsieht, wird umgangen. Noch ist das Internet ein öffentlicher Raum, doch die Versuchung, darin Schließungen vorzunehmen, ist groß, wie auch das Amazon-Beispiel zeigt. Es gibt keine dem Internet inhärente Qualität, die garantieren würde, daß es offen bleibt. Wie immer werden wir uns dafür engagieren müssen.

Doch die freie Software muß sich nicht nur wehren, als Erfolgs-Story kann sie auch anderen Wissensformen -- Texten, Bildern, Musik, Medienkunst -- als Vorbild dienen. So stellen bereits Autoren ihre Arbeiten unter die Open Content License. Ähnlich wie die GPL garantiert und sichert die OCL die Freiheit eines Werkes und aller abgeleiteten Werke.

Weitergehend könnte man den Status dieser öffentlichen Güter rechtlich stärken. Die Public Domain (in der angelsächsischen Tradition: the Commons, in der germanischen: Allmende) ist zwar als Grundwert in den Fundamenten jedes Urheberrechts enthalten, wird dort aber nur negativ bestimmt. Sie ist der 'Rest' des Wissens; der Ort, wo Werke hingehen, deren Schutzfrist abgelaufen ist, die von der Autorin ausdrücklich in die Public Domain gestellt werden, von Wissen, das an den Universitäten und anderen öffentlichen Einrichtungen entsteht und Informationen der Behörden,(9) aber auch Backlists von Verlagen(10) könnten dazu gehören. Die public domain müßte eine ähnlich positive Bestimmung erlangen, wie die private domain. Nicht zuallererst und nicht allein rechtlich, aber schon aus Symmetriegründen würde es sich anbieten, dem Urheberrecht ein Gemeinfreiheitsrecht an die Seite zu stellen.

Das Internet als öffentlichen Raum zu begreifen, bedeutet, eine kollektive Verantwortung dafür zu übernehmen. Wir können zusehen, wie ein privater proprietärer Code die Pfründe darin absteckt. Oder wir können uns dafür engagieren, daß auch weiterhin die Grundwerte von Freiheit und ungehinderter offener Kooperation, von Schutz der Privatsphäre, Redefreiheit, Anonymität und universellem Zugang in die Architektur dieses Raumes eingebaut werden.
 
 

# locate info
Die umfassende Dokumentation der Konferenz "Wizards of OS -- Offene Quellen & Freie Software", 16.-17. Juli 1999 im Haus der Kulturen Berlin, sowie weitere Materialien und Links zum Thema finden Sie unter www.mikro.org/wos.
 
 


Fußnoten

1. In den Zwischentiteln möchte ich gemeinsam mit Ihnen einen Installationsvorgang durchlaufen. "fdisk" dient zur anfänglichen Formatierung eines Datenträgers. Der Zielparameter "/internet" ist nicht ganz ernst gemeint und wäre nicht zu empfehlen, würde er doch das Internet formatieren und dabei alle vorhandenen Daten löschen.

2. Pierre Teilhard de Chardin, Die Zukunft des Menschen, Olten 1966, S. 91

3. Der Befehl "make world" kompiliert unter BSD das komplette System neu. Bei Erstinstallation holt der Befehl alle notwendigen und gewünschten Pakete von einer CD oder direkt aus dem Netz und installiert sie.

4. Dave Clark, IETF Credo (1992), http://info.isoc.org:80/standards/index.html

5. Pit Schultz, in: de:bug, 12/99

6. die Zeit, 22.12.99, S.29

7. nach dem Vorbild der Aufteilung von AT&T in regionale 'Baby-Bells'.

8. das Maskottchen von Linux

9. vgl. das Grünbuch der EU zu Informationen des öffentlichen Sektors, ähnlich dem US-amerikanischen Freedom of Information Act.

10. Bücher, deren Phase der kommerziellen Verwertbarkeit abglaufen ist, und die Verlage mit geringem Aufwand in digitaler Form der Öffentlichkeit zugänglich machen könnten.