Dies ist ein Vorabdruck des Manuskripts eines Vortrags an der Universität GH Siegen am 3.2.97. Er ist nicht abschließend korrekturgelesen. Sowohl Inhalt wie Schreibweise mögen sich noch ändern. Zum Zitieren gilt die gedruckte Fassung.

© Das Copyright liegt beim Verfasser.


Berechenbare Zufälle

Wolfgang Coy



Inhalt


0. Sinnsuchende Tiere

Der junge Hegel möchte den Zufall aus dem ,,Begriff der Wissenschaften" verbannt sehen. Später weist er dem Zufall immerhin eine propädeutische Rolle zu ,,Die bestimmten Religionen der Völker zeigen uns allerdings oft genug die verzerrtesten und bizarresten Ausgeburten von Vorstellungen des göttlichen Wesens und dann von Pflichten und Verhaltensweisen im Kultus" heißt es in den Vorlesungen über die Philosophie der Religion . Doch dies ist alles nur der zufällige Schein. ,,Das höhere Bedürfnis ist vielmehr, den Sinn, das Wahre und den Zusammenhang mit dem Wahren, kurz das Vernünftige darin zu erkennen. Es sind Menschen, die auf solche Religionen verfallen sind; es muß also Vernunft darin und in aller Zufälligkeit eine höhere Notwendigkeit sein." Zufälligkeit, Kontingenz, die Notwendigkeit, daß unter den möglichen Ereignissen ein bestimmtes eintritt, läßt dem Zufall ein kleines Plätzchen in Hegelschen Welt der Erscheinungen.

Die wissenschaftliche Welterkenntnis mag den Zufall nicht - und der Alltagsverstand mag ihn auch nicht. Der Alltagsverstand leidet an der Überraschung des Zufalls, der die Planung irritiert, kompliziert oder gar konterkariert. Wenn die Folgen einer Situation nicht eindeutig sind, droht der Verlust der Orientierung, droht die Unmöglichkeit sinnvoller Planung.

Die Wissenschaft zieht eindeutig bestimmte Kausalketten vor, funktionale Abhängigkeiten bis hin zu Pawlowschen Reflexen. Berechnung und Zufall stehen, im historischen Blick gesehen, gegeneinander . 1915 schreibt Freud in ,,Das Unbewußte": ,,Wer die pathologischen Tatsachen nicht kennt, die Fehlhandlungen der Normalen als Zufälligkeiten gelten läßt und sich bei der alten Weisheit bescheidet, Träume seien Schäume, der braucht dann nur noch einige Rätsel der Bewußtseinspsychologie zu vernachlässigen, um sich die Annahme unbewußter seelischer Tätigkeit zu ersparen." Ist die Annahme objektiven Zufalls bloße Denkfaulheit?

Kurze Zeit, jedoch einen Weltkrieg später, steht dann allerdings, in Jenseits des Lustprinzips (1920), direkt nach der erstmaligen Erwähnung des Ich(Todes-)triebs der erstaunliche Hinweis, daß wir vielleicht ja unsterblich wären, wenn es den Zufall nicht gäbe, durch den wir zu Tode kommen. Nur unser Bedürfnis nach Trost gibt uns ein, Sterben sei notwendig. ,,Wenn man schon nicht selbst sterben will und vorher seine Liebsten durch den Tod verlieren soll, so will man lieber einem unerbittlichen Naturgesetz, der hehren Anakh (Notwendigkeit), erlegen sein, als einem Zufall, der sich noch hätte vermeiden lassen. Aber vielleicht ist dieser Glaube an die innere Gesetzmäßigkeit des Sterbens auch nur eine der Illusionen, die wir uns geschaffen haben, >um die Schwere des Daseins zu ertragen<. Ursprünglich ist er sicher nicht, den primitiven Völkern ist die Idee eines >natürlichen< Todes fremd; sie führen jedes Sterben unter ihnen auf den Einfluß eines Feindes oder eines bösen Geistes zurück."

Der Zufall hat also eine Geschichte innerhalb der modernen Wissenschaften &endash; und innerhalb der Denksysteme.

Zufall oder vornehmer: ,,Kontingenz", ist eine Voraussetzung sinnvollen Handelns: Das Mögliche darf nicht das einzig Mögliche sein; eine sinnvolle Wahl muß eine mögliche Wahl unter anderem Möglichen sein, das so seinen faktischen Sinn erhält. Luhmann bemerkt: >>Sinn stattet das je aktuell vollzogene Erleben oder Handeln mit redundanten Möglichkeiten aus. Dadurch wird die Unsicherheit der Selektion zugleich auch wieder kompensiert. Redundanz hat eine Sicherheitsfunktion.<<
Sinn geht über die unmittelbare intelligente Grenzerhaltung der psychischen und sozialen Systeme hinaus. Beim Menschen ist die Sinnproduktion als Selbstorganisation immer schon mit Künstlichem verknüpft. Das was von der Natur nicht gegeben, wohl aber nützlich und sinnvoll erscheint, wird künstlich erstellt: Kultgegenstände, Häuser, Kleidung, Geschirr, Möbel, Waffen, Werkzeuge, Schrift, Medien, Algorithmen. Und über das Nützliche und Sinnvolle hinaus läßt sich eine Lust am Formalen beobachten, die ebenfalls Künstliches produzieren läßt. Zeremonien und Rituale haben dort ihren Ursprung, aber auch die Mathematik, die Kunst oder das zwanghafte Programmieren. Luhmann weist darauf hin, daß die Wahl, ob ein System sinnproduzierend arbeitet, freilich endgültig ist. >>Sinn verweist immer wieder auf Sinn und nie aus Sinnhaftem hinaus auf etwas anderes. Systeme, die an Sinn gebunden sind, können daher nicht sinnfrei erleben. Sie können die Verweisung von Sinn auf Sinn nicht sprengen...<< und >>Die zirkuläre Geschlossenheit dieser Verweisungen erscheint in ihrer Einheit als Letzthorizont alles Sinnes: als Welt <<.

Sinn setzt Verstehen der elementaren Bedeutungen der Außenkontakte ebenso wie ein Selbstverständnis des eigenen Systems voraus. Dies ist der Hauptgrund, warum die Formalisierung von Sinn nicht gelingt und nicht gelingen kann. >>Der allem Sinn immanente Weltbezug schließt es aus, daß wir Sinn als Zeichen definieren.<< schreibt Luhmann und >>Ein Zeichen muß Sinn haben, um seine Funktion erfüllen zu können, aber Sinn ist kein Zeichen. Sinn bildet den Kontext aller Zeichenfestlegung, die condition sine qua non ihrer Asymmetrisierung, aber als Zeichen genommen, würde Sinn nur als Zeichen für sich selbst, also als Zeichen für die Nichterfüllung der Funktion des Zeichens stehen können.<<

Sinngeleitetes Handeln ist eine hinreichende Bedingung intelligenter Selbstorganisation; sie scheint sogar eine notwendige zu sein - wir kennen jedenfalls keine andere. Kontingenz, der Raum der Möglichkeiten und die zufällige Bestimmung einer dieser Möglichkeiten als Kandidat für das tatsächlich eintreffende Geschehen, ist für eine Welt, in der Handeln einen Sinn hat und nicht bloßer Reflex ist, unverzichtbar.

 


1. Lesen im Buch der Natur

Die Naturwissenschaft entziffert seit Galileo Galilei das >>Buch der Natur<<, nach Augustinus eine zweite Offenbarung Gottes neben der anderen, der Heiligen Schrift. Das Buch der Natur ist laut Galilei in mathematischer Form notiert.

Augustinus kannte sich beim Lesen aus: Seinen Lehrer Ambrosius kennzeichnete er als den ersten Menschen, der beim Lesen die Lippen nicht bewegte &endash; was bei Texten, deren Worte ohne Zwischenräume, also ohne Leerzeichen, aneinandergefügt waren, keine leichte Aufgabe war. Galilei hatte es in den Zeiten des beginnenden Buchhandels in dieser Hinsicht entschieden einfacher &endash; er las nicht nur die Klassiker, er schrieb mit klassischer Feder gegen sie an.

Doch Galileis Bezug auf das Buch der Natur war in guter Florentiner Rhetoriktradition mehrdeutig. Nicht nur Augustinus, sondern auch die Protestanten hatten neben der Heiligen Schrift Gottes Buch der Natur entdeckt. So heißt im zweiten Artikel der Confessio Belgica von 1661: ,,Die Natur ist vor unseren Augen wie ein schönes Buch, welches die unerforschlichen Gedanken Gottes darstellt." Eine feine, arrogante Spitze Galileis gegen Rom.

Andererseits fand Galilei die Gedanken Gottes im Buch der Natur keineswegs unerforschlich und so war seine Spitze vor allem gegen die Aristoteliker gerichtet, die dessen Texte gelegentlich der Bibel gleichstellten. Den Aristoteles sollte man nicht lesen, sondern das Buch der Natur, das so geschrieben ist, ,,daß es auch andere als Aristoteles lesen" können. Dessen Texte sind ein Gefängnis der Vernunft; Galileis Attacke ist ein Angriff auf die Jesuiten.

Welche Mathematik meint Galilei, wenn er dem Buch der Natur seine mathematische Grammatik und Sprache zuweist. Es ist die Geometrie und es sind die Anfänge der modernen Algebra, noch vor der Analysis, die nach Galilei von Leibniz und Newton begründet, die Beschreibung dynamischer Vorgänge erlaubt, und ohne die Wahrscheinlichkeitstheorie, die den Zufall in die Kombinatorik überführt. Vieles freilich liegt in der Luft. Cardanos vor Galileis Geburt 1525 verfaßtes Liber de Ludo Aleae, das Buch der Würfelkunst, wäre zu nennen. Es ist zu Galileis Lebzeit (1564-1642) schon geschrieben, freilich erst nach seinem Tod, nämlich 1663 veröffentlicht.
So beginnt die Geschichte der mathematischen Behandlung des Zufalls, die Wahrscheinlichkeitstheorie offiziell erst 1654, nach Galileis Tod mit dem Brief des Antoine Gombauld, Chevalier de Méré, Sieur de Baussay an Blaise Pascal, wo er diesen um Hilfe bei der Analyse eines ,,alten" Problems des Würfelspiels bittet. Es geht um die Anzahl n der Würfe mit einem Würfeln, die zu zwei hintereinander folgenden Sechsen führen. Eine alte Spielerregel sagt n=24. Pascals Analyse zeigt, daß n=24 nur eine Wahrscheinlichkeit von p24=0,4914 besitzt, n=25 aber zu p25=0,5055 führt. Praktisch wirkt sich diese tiefergehende Analyse beim Würfeln wohl nicht aus.
Die eigentliche moderne Fassung der W-Theorie setzt freilich am zweiten Problem des Chevalier de Méré an, nämlich an der Frage, wie man bei einem Turnier die Preise verteilt, wenn dieses vorzeitig abgebrochen werden muß, aber schon Ergebnisse vorliegen. Das Problem ist bereits zwei Jahrhunderte lang diskutiert worden &endash; ohne gelöst zu werden. Jeder Mathematiker, der sich an dieses Problem wagte, zeigte zuerst, daß die vorherigen Lösungen falsch sind und gibt dann eine neue an. Cardano zeigt, daß Pacioli irrt, Tartaglia zeigt, daß Cardano irrt usw. Roberval, den Méré ebenfall um Hilfe bitte, zeigt sich außerstande, das Problem zu lösen. Pascal gibt eine Lösung an, ist aber unsicher und bittet Fermat um Hilfe. Dieser Briefwechsel von 1654 ist der Beginn der Wahrscheinlichkeitstheorie, kurz: der W-Theorie, also der mathematischen Theorie des Zufalls. Er wird freilich erst 1679 partiell veröffentlicht; einige der Briefe sind verloren.

Obwohl: ,,Die Anfänge des Glücksspiels und der Probleme, die aus ihnen erwachsen, verlieren sich im Dunkel der Zeiten. Ihr erster Theoretiker war ohne Zweifel derjenige, der als erster seine Würfel fälschte" schreibt Jean Dieudonné in seiner Geschichte der Mathematik 1700-1900 .

 


2. Der Zufall ist unwahrscheinlich

Ist 13 eine zufällige Zahl? Oder 9? Oder 21345678? Oder p? Natürlich nicht. Eine einzelne Zahl kann garnicht zufällig sein. Erst das Auftauchen einer Zahl im Kontext mag zufällig erscheinen, etwa wenn das fünfte Elemente der Folge x1,x2,x3,x4,x5 den Wert 9 oder 13 annimmt oder wenn aus der Menge der ersten 100 Quadratzahlen gerade 49 gewählt wird.
Zufallszahlen sind also zufällig ausgewählte Zahlen aus einer Menge möglicher Zahlen. Den Grad des Zufalls kann man dann als Kehrwerts der möglichen Wahlen bestimmen, ein Spezialfall der Wahrscheinlichkeit eines Ereignisses. Mathematisch gesehen, wird Zufall so zur Wahrscheinlichkeit oder Unwahrscheinlichkeit eines Ereignisses.

Die Bestimmung einer konkreten Wahrscheinlichkeit setzt allgemeine Annahmen voraus, zuderen seltsamste gehört, daß die unterschiedlichen Wahrscheinlichkeiten der möglichen Fälle bekannt sein sollen. Beim Würfel oder der zu werfenden Münze geht man, mangels besserer Argumente, von der letztlich nicht weiter begründbaren Modellannahme aus, daß die Natur es schon so eingerichtet habe, daß alle 6 Seiten des Würfels mit gleicher Wahrscheinlichkeit fallen könnten oder daß jede Münze genauso oft auf Kopf wie auf Zahl falle. Dies sind Modellierungsfragen, keine Fragen der mathematischen Theorie - was nicht immer begrifflich sauber getrennt wird.
Erst wenn dieses Modell unterstellt ist, lassen sich W-theoretisch saubere Aussagen über die Wahrscheinlichkeiten konkreter Wurfsequenzen machen, also z. B. die Vorhersage, daß die Reihenfolge Kopf-Kopf-Kopf grade so wahrscheinlich ist wie die Reihe Zahl-Kopf-Zahl . Oder daß im Zahlenlotto die Zahlfolge 1-2-3-4-5-6 nicht unwahrscheinlicher ist als 42-12-3-4-48-7. Die W-Theorie wäre freilich keine mathematische Theorie, wenn sie nicht auch mit verfälschten Würfeln fertig würde. Sie müßte freilich das Langfristverhalten der Einzelwürfe kennen, um exakte Aussagen über künftige Verläufe treffen zu können. Wüßte man, daß die 6 um 5% häufiger vorkommt als die 1, so verschöbe sich die vom Chevalier de Méré erfragte Zahl nötiger Würfe für zwei aufeinanderfolgende Sechsen von 25 auf 22.
Andererseits sind nicht alle naiv gleich wahrscheinlichen Ereignisse auch faktisch gleich wahrscheinlich. Als einfaches Beispiel sei die Tatsache erwähnt, daß Butterbrote häufiger auf die Butterseite fallen. Der theoretische Beweis dieser lange bekannten Tatsache gelang erst im vorletzten Jahr. Er wurde mit dem (sehr alternativen) IG-Nobelpreis gewürdigt. (Für die ganz Neugierigen: Diese mißliche Wahrscheinlichkeit hängt nach dieser Analyse von der Fallhöhe ab. Unter 1,50m Tischhöhe ist die Natur anscheinend butterbrotfeindlich ).

Zu den geheimnisvollen Ergebnissen der W-Theorie gehört die Analyse des langfristigen Verhaltens zufälliger Ereignisse. Sie passen sich nach dem Gesetz der großen Zahl mit immer größerer Genauigkeit an die Wahrscheinlichkeitsverteilung an. Ideale Münzen fallen demnach nach hinreichend vielen Würfen statistisch immer gleichmäßiger auf die eine oder die andere Seite. Man kann die Zahl der nötigen Würfe n bestimmen, so daß die Abweichung von der Gleichverteilung Kopf-Zahl aller Wahrscheinlichkeit nach geringer als ein vorgegebenes e, also z.B. e=5% oder e=3[DBL-PCT] ist.

Dummerweise ist diese Zahl n auch nur eine Wahrscheinlichkeitsaussage und je kleiner die akzeptierte Abweichung e von der idealen Gleichverteilung ist, desto größer mögen die temporären Abweichungen von dieser Gleichverteilung werden.

Trotzdem: Die W-Theorie funktioniert im Großen, sonst gäbe weder Spielbanken noch Lottogesellschaften noch Versicherungen. Die Wahrscheinlichkeit des Zufalls ist abschätzbar geworden.

Zufall wird mathematisch zuvorderst als die Wahrscheinlichkeit oder Unwahrscheinlichkeit eines modellierten Ereignisses aufgefaßt, sei es ein Münzwurf, sei es ein Würfelfall, sei es der größte anzunehmende Unfall, die kryptografische Verschlüsselung einer Botschaft oder der Wärmetod der Welt.

 


3. Zufall als Nichtdeterminismus

Wahrscheinlichkeit ist nicht das einzige mathematische Modell des Zufalls.

Der Funktionenbegriff ist die erfolgreichste mathematische Struktur in der mathematischen Beschreibung des Buchs der Natur. Mißlich ist dabei allerdings, daß von einer f(n) verlangt wird, daß sie für jedes n einen eindeutig bestimmten Wert liefert. So beschreibt die Funktion f(n)=n 2 die Folge der Quadratzahlen f(1)=1, f(2)=4, f(3)=9, f(4)=16, f(5)=25 usw.

Ein idealisierter Münzwurf kennt dagegen jeweils zwei mögliche Ergebnisse Kopf oder Zahl, die für jeden Wurf gelten können, ein Würfel kennt sechs mögliche Ergebnisse, die im idealen Fall alle gleich wahrscheinlich sind. Das zufällige Ergebnis der Folge S ist also nicht ein deutig bestimmt, es ist nicht-determiniert, sondern hängt vom Zufall ab. Nichtdeterministische Abbildungen von n nach S(n) heißen Relationen, eine streng determinierte Abbildung ist darüber hinaus auch eine Funktion.

Nichtdeterminismus muß nicht zufällig bedingt sein; es ist eine Form der Modellierung, mit der irgendwelche Eigenschaften nicht weiter modelliert werden. Dabei kann sich um das Wetter, die Uhrzeit, das Alter oder eben den Zufall halten. Zufall ist eine relative Modellierungseigenschaft.

Computerprogramme sind allesamt logisch deterministisch, sie sind aber niemals fehlerfrei, so daß für den Benutzer nicht-determinierte Effekte eintreten können, die angesichts der hohen Komplexität als zufällig erscheinen mögen. Die Hardware ist noch häufiger von unvorhergesehen Einflüssen bestimmt, so daß der Determinismus der Berechnungen eine intendierte, aber nicht immer garantierte Eigenschaft ist.

Bei den abstrakten Maschinen, auf die sich die von Neumann Architekturen der Computer zurückführen lassen, ist der Determinsmus keine Voraussetzung. Turingmaschinen gibt es sowohl in deterministischer wie in nicht-deterministischen Variationen.
Turingmaschinen sind zu denken mit einem unbeschränkten in Feldern eingeteiltem Band, ähnlich einem Tonbandgerät, so daß in ein Feld des Bandes ein Zeichen aus einem endlichen Alphabet, wie z.B. {0,1} oder Zahlen 0...9 oder den großen Buchstaben A...Z, geschrieben werden kann. Die auf dem Band operiende Einheit kann einen von endlich vielen z.B. 5 Zuständen annehmen und sie arbeitet wie ein Computer ein Programm ab, das aus endlich vielen Anweisungen besteht. Für jeden Zustand s und jede Feldinschrift b gibt es bei der deterministischen Turingmaschine eine Programmzeile, die eindeutig angibt, welcher neue Folgezustand sº, welche Kopfbewegung (ein Feld links, ein Feld rechts, Löschen oder Schreiben) ausgeführt werden soll und welche neue Feldinschrift c geschrieben werden soll. Ihre Arbeitsweise ist also durch drei (eindeutig festgelegte) Funktionen bestimmt, eine Zustandsübergangsfunktion, eine Kopfbewegungsfunktion und eine Ausgabefunktion .
Die Erweiterung auf nicht-deterministische Turingmaschinen entspricht mathematisch dem Übergang von Funktionen auf Relationen . Für eine gegebene Situation Zustand und Bandinschrift kann eine von mehreren unterschiedlichen Folgen eintreten. Welche Folge konkret eintritt, wird nicht modelliert. Wir können sie als zufällig interpretieren, sie kann aber auch einem hidden parameter gehorchen. Nicht-Determinismus ist demnach eine weitere mathematische Modellvorstellung für zufälliges Handeln. Interessanterweise kann man zeigen, daß nicht-deterministische Turingmaschinen prinzipiell nichts anderes berechnen können als deterministische Turingmaschinen. Dies ist insofern bemerkenswert als nach der bis heute nicht widerlegten Turing-Churchschen These alle Modelle der Berechenbarkeit äquivalent zum Modell der deterministischen Turingmaschine sind - und demnach auch zum Modell der nicht-deterministischen Turingmaschine.

 


4. Determiniertes Chaos

Funktionen lassen durch ihren eindeutigen Charakter kein zufälliges Ergebnis erwarten. Jede Berechnung f(n) liefert für ein gegebenes Argument n einen eindeutig bestimmten Wert. Interessant wird es, wenn rekursive Funktionen betrachtet werden, also Funktionen bei denen das Ergebnis f(x) selber wieder zum Argument wird, also eine Folge f(f(x), f(f(f(x))) usf.
Ein einfaches Beispiel einer solchen rekursiven Folge ist die Quadratwurzel f(x)=[CHECK]x. Die Folge hat einen Fixpunkt. Für jedes x gilt nach hinreichend vielen Schritten n, daß für ein beliebig klein gewähltes e der Wert von f(f(f...(x)...)) <= (1+e) wird. So ein Fixpunkt wird Attraktor genannt. Viele rekursive Funktionen haben solche Attraktoren, gelegentlich im Unendlichen. Es gibt aber interessante Sonderfälle, die zu einer weiteren Charakterisierung des Begriffs ,,zufällig" führen. Die rekursive Funktionsfolge

x=r *x(x-1)

zeigt im Interval 0<=x<=1 für positive n<=4 unterschiedliches Verhalten. Für n<3.4495 ist gibt es genau einen Attraktor. Für 3.4495<r<3.5441 springt die Funktionsfolge mit jedem weiteren n Wert zwischen zwei Attraktoren hin und her. Diese Verdoppelung für schrittweise zu 2n Attraktoren um dann bei r=3,5699... bis r=4 zwischen beliebigen Attraktoren zufällig hin & her zu springen. Dieses zufällige Verhalten heißt deterministisches Chaos - wohl unterschieden von der (nicht-determinierten) Beliebigkeit. Zufall heißt in dieser dritten mathematischen Auffassung Chaos, obwohl dieses in völlig determinierter, parametrisierter Weise erzeugt wird.

 


5. Berechenbarer Zufall: Quasizufallszahlen

Zufällig gewählte Zahlen spielen eine große Rolle in Technik und Wissenschaft. Simulation, die Auswahl geeigneter Samples, die numerische Analysis, der Test von Computerprogrammen und allgemeiner die Überprüfung technischer Zuverlässigkeit, sie alle verwenden zufällig gewählte Zahlen. Dummerweise lassen sich solche Zufallszahlen nicht ohne weiteres mit einem deterministischen Verfahren herstellen. Computerprogramme können in logischer Hinsicht nur Quasi- oder Pseudozufallszahlen erzeugen - und aus der Sicht der Computernutzer, die zuverlässige, wiederholbare Ergebnisse wünschen, ist dies auch gut so.
Zwei Probleme springen ins Auge:

Im Prinzip läßt sich jede Folge von Funktionsberechnungen als Produktion einer zufälligen Zahlenfolge interpretieren. Zur laufenden Produktion von Folgen werden die Rechnungen rekursiv verfolgt, also das Ergebnis der Rechnung als quasi- zufälliges Ergebnis akzeptiert aber sofort wieder als neue Eingabe verwendet. Ein wesentliches Problem liegt in der Vermeidung periodischer Ausgabefolgen. Eines der berühmtesten Verfahren zur Erzeugung quasi-zufälliger Folgen, das von John v. Neumann 1946 entwickelte mid-square Verfahren leidet stark an der Periodenbildung. Beim mid-square Verfahren wird eine längere Zahl, z.B. eine fünfstellige Dezimalzahl wie 62.612 quadriert zu 3.920.262.544 und die mittleren 5 Dezimalzahlen 20.262 herausgeschnitten. Das Verfahren kann beliebig wiederholt werden, also dann 20.262 quadriert zu 410.548.644 mit em Ergebnisausschnitt 05486.
Dummerweise entstehen bei vielen Ausgangszahlen nach kurzer Zeit Perioden von Ausgabezahlen, also etwa entschieden Nicht-Zufälliges. Der Test auf Periodizität ist also ein Basistest für jede Quasi-Zufälligkeit - und by the way auch für jeden Test anderer vermuteter Zufälligkeiten. Rekursive Berechenbarkeit und lange Perioden sind also die Kennzeichen der Quasi- oder Pseudozufallsfolgen.
Es gibt sehr viele Vorschläge für Pseudozufallsgeneratoren. Befriedigend sind wenige, im Sinne strenger Tests sind keine unter allen Umständen gut.

Ist der programmierte Pseudozufall im Nachteil gegenüber dem ,,objektiven" Zufall &endash; so es diesen überhaupt gibt. Die Lottogesellschaften glauben an solche Lostrommeln (und die Spieler müssen dran glauben). Vor dem breiten Einsatz der Computer gab es dickbändige Werke mit ,,Zufallszahlen", die aus statistischem Material ausgewählt wurden.

Ulrich Dieter schreibt in einer Übersicht zur Generierung von Quasizufallsfolgen nach Abschnitten wie ,,Generatoren, die nicht verwendet werden sollten" oder ,,Verbesserungsvorschläge, die zu nichts führen" unter dem Stichwort ,,Physikalische Generatoren":
,,Diese sollen hier nicht ausführlicher diskutiert werden. Nur durch statistische Tests läßt sich entscheiden, ob die erzeugten Zahlen gleichverteilt sind.Da arithmetisch erzeugte Zufallszahlen, die offensichtlich ihre Fehler haben, meist solchen Testen Genüge leisten, glaubt der Autor dieser Note nicht an die Überlegenheit physikalisch erzeugter Zufallszahlen".

Mathematisch generierte Zufallsfolgen scheinen eben zufälliger zu sein als die Natur. Beim Zufall überragt das Artifizielle die schlichte Natur.

 


6. Berechenbarer Zufall: Komplexität

Laplace schreibt 1812 in seinem Essai philosophique sur les probabilités, einem Grundlagenwerk der W-Theorie:
>>Wir müssen also den gegenwärtigen Zustand des Weltalls als die Wirkung seines früheren und als die Ursache des folgenden Zustands betrachten. Eine Intelligenz, der in einem gegebenen Zeitpunkt alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage aller Dinge, aus denen die Welt besteht, kennte und überdies umfassend genug wäre, alle diese Daten der Analyse zu unterwerfen, könnte in einer und derselben Formel die Bewegungen der größten Körper des Weltalls und die der leichtesten Atome zusammenfassen; nichts wäre ihr ungewiß, und Zukunft wie Vergangenheit wäre ihren Augen gegenwärtig. Der menschliche Geist liefert in der Vollkommenheit, die er der Astronomie zu geben wußte, eine schwache Skizze dieser Intelligenz.<< Für diesen allwissenden Laplaceschen Dämon sind die Vorstellungen eindeutig definierter Zustände und eindeutig definierter wirkender Kräfte von wesentlicher Bedeutung. Beides wird im folgenden die physikalisch-mathematische Denkwelt beherrschen. Unter >>allen in der Natur wirkenden Kräften<< versteht Laplace, der Zeit entsprechend, alle in der Natur wirkenden mechanischen Kräfte. Dies ist der seiner Zeit, der siegreichen Aufklärung, entsprechende ideologische Standpunkt des Marquis, der bekanntlich Napoléon auf dessen ironische Frage nach dem Platz von Gott in seiner Mécanique céleste antwortete: >>Sire, je n'avais pas besoin de cette hypothèse<<. Die Mechanik bietet ihm ausreichende Gewißheit der Erkenntnis.

Deterministisches Chaos zeigt, daß schon eine relativ kurze Folge von rekursiven Rechenschritten ein Verhalten generiert, das mit allem Recht als quasi-zufällig bezeichnet werden kann, und jeden Test auf zufälliges Verhalten überstehen wird. Die Frage ist nun, wie solche komplexen Rechnungen zu bewerten sind. Unterscheiden sie sich von zufälligem Verhalten oder sind sie nur eine Erscheinungsform des Zufalls.
Einem Einwand wäre zumindest zu begegnen: Es müßte sichergestellt sein, daß die komplizierte Berechnung nicht nur eine zu umständliche Notation, sondern eine inhärente Komplexität der zu berechnenden Funktion darstellt. Dies ist eine außerordentlich diffizile Frage. Aus den Untersuchungen von Kolmogoroff in der Mitte des Jahrhunderts wissen wir zwar, daß solche inhärent komplexen Funktionen (oder Algorithmen oder Programme) existieren. Von einer konkreten Funktion zu beweisen, daß sie inhärent komplex gemessen an einem bestimmten Maß sei, also z.B. stets exponentiell viele Rechenschritte 2 n bei einer Eingabe der Länge n verlangt, erweist sich als außerordentlich schwierig.

Günther Hotz hat die Laplacesche Frage im Rahmen dieser Untersuchungen neu aufgeworfen. Angenommen wir kennten alle Gesetze, die die Welt bestimmen und den exakten Zustand der Welt. dann könnten jemand,der über die nötigen Ressourcen an Speicher-Raum und Rechen-Zeit verfügte, alle Zukunft berechnen. Doch dies, soviel sei angemerkt, könnte einen Aufwand verlangen, der alle Ressourcen der Welt überschritte. Eine solche Berechnung wäre für uns resourcenbeschränkte Menschen von einer dem freien Willen aller unterworfenen, also zufällig erscheinenden Zukunft nicht unterscheidbar.

Zufall ist demnach formal, in mathematischem Verständnis, von komplizierter Berechnung nicht unterscheidbar.

 


7. Ist der ,,objektive Zufall" ein mathematisches Objekt?

Der Zufall hat also eine Geschichte. In der präzisen Auffassung der Mathematik ist er

unwahrscheinlich,
auch
nicht determiniert,
oder
chaotisch,
sicher aber
kompliziert zu berechnen.

Ob objektiver Zufall überhaupt existiert, ist mit mathematischen Ansätzen nicht entscheidbar. Insbesondere ist Zufall nicht vom Ergebnis komplizierter, aber dennoch berechenbarer und determinierte Prozesse unterscheidbar.

Der scholastische Universalienstreit findet so eine überraschende (aber keineswegs zufällige) Fortsetzung, denn ob ein ,,objektiver Zufall" real existiert oder ob der ,,objektive Zufall" nur eine Frage des Sprachgebrauchs ist, bleibt mathematisch ebenso wenig entscheidbar wie die Frage nach der ,,Existenz freien Willens".

Halten wir fest: Zufall entsteht erst in den Köpfen der Betrachter.Was Zufall ist, bestimmen wir!

 


Literaturverweise:




Adresse des Verfassers:

Prof. Dr. Wolfgang Coy
Humboldt-Universität zu Berlin
Institut für Informatik, Informatik in Bildung & Gesellschaft
Unter den Linden 6
D-10099 Berlin

Tel +49 30 2018 1303
Fax +49 30 2018 1304
coy@informatik.hu-berlin.de


Der Text wurde am 3.2.97 vorgetragen, diese Seiten wurden am 15.3.97 erstellt