Visuelle Argumentationen
Die Konstruktion technischer Bilder
Eine Einheit von Bild, Schrift und Zahl
Wolfgang Coy
1. Digitalisierung
Der Prozeß der Digitalisierung moderner Medien wird durch vier technische Charakteristika gesteuert: Die Daten werden als Ziffern kodiert, sie sind in dieser Form speicherbar, sie können mit Hilfe von Computern programmiert verarbeitet werden und sie können über digitale Netze weltweit übertragen werden. Diese Prozesse stützen sich auf Hardware wie z.B. A/D- und D/A-Wandler, Prozessoren, Speicher, Ein- und Ausgabegeräte, Netzadapter, ebenso wie auf technische Verfahren, also Programme oder allgemeine Software.
Medientheoretisch ist dies eine unifizierende Abbildung aller denkbaren sensorischen Mediendaten wie Schrift, Grafik, Farbe, Ton oder Bewegung auf Ziffern oder allgemeiner auf Zeichen aus einem endlichen Zeichenvorrat. Selbst Geruch, Geschmack oder taktile Sensorik oder Aktorik läßt sich digital in beliebiger Genauigkeit bis an die Grenzen der Meßbarkeit in die gut unterscheidbaren digitale Signale 0 und 1 umwandeln. Die Hardware unterscheidet nur diese beiden Signale, für menschliche Leser werden diese als ASCII-Kode, EBCDIC-Kode oder Unicode dargestellt und gelegentlich zu komplexeren digitalen Signalformen zusammengefaßt und wieder in Bilder, Bewegungen oder Töne zurückgewandelt.
Prozessieren, Speichern und das Übertragen in Netzen erfolgt in einem inheitlichen Binärkode, dem Digitalkode per se. Diese Vereinheitlichung aller Medien läßt uns vom Digitalen oder von Digitalen Medien sprechen. Die Vereinheitlichung auf dieser untersten symbolischen Ebene ist allerdings nur eine syntaktische Bewegung. Offen ist, wie die Semantik und Pragmatik dieser digital speicherbaren, prozessierbaren und übertragbaren Medien durch ihre Digitalisierung verändert wird.
2. Grafische Bildkonstruktionen
Die Darstellung komplexer Gedankengänge und Erkenntnisse bedarf der interpersonellen Kommunikation und der dauerhaften Speicherung halber medialer Hilfsmittel: der Schrift, des Bildes, des formellen Beweises. Zweifellos sind die modernen Wissenschaften zutiefst im Text verankert, eine mediale Repräsentation, die durch den Buchdruck wesentlich erweitert wurde. Mit einigem Recht kann deshalb für die modernen Wissenschaften gesagt werden, sie seien ein Ergebnis der Gutenberg-Galaxis. Der hohe Stellenwert, den der gedruckte Text in diesen Überlegungen einnimmt, verdeckt leicht, daß wissenschaftliche und technische Argumentationen ebenso bildliche Darstellungen einbeziehen, eine Ignoranz, die sich häufig in der Vorstellung ausdrückt, Bilder seien (bloß) illustrativ und inhärent unpräzise.
Beides wird bereits durch eine der ältesten Wissenschaften, der Geometrie, widerlegt. Geometrische Darstellungen sind keineswegs illustrativ, sondern essentiell, keineswegs annähernd, sondern von völlig präziser Beweiskraft. Während die Geometrie sich entgegen ihrer etymologischen Herkunft wohl vor allem aus der Beobachtung des Himmels ableitet, wo Sterne in hinreichender Näherung als Punkte gesehen werden können, hat die irdische Kunst der Baukonstruktion zu einer anderen Zeichentechnik geführt, der Architekturzeichnung und dem Bauplan. Auch hier handelt es sich um präzise bildliche Abstraktionen, die durch Texte ergänzt, aber nicht ersetzt werden können.
Im Umfeld der Bauzeichnungen, die vor allem im Festungsbau und im Dombau genutzt wurden, haben sich Darstellungen von Maschinenbauteilen entwickelt. Technische Zeichnungen sind so zu einer eigenen Kategorie geworden, die bereits vor dem Buchdruck verwendet wird, etwa im Manuskript des Kyeser von Eichstätt oder bei Niklas v. Honnecourt. In den Büchern Albertis oder den Skizzen Leonardos wachsen die Perspektivzeichnungen und die technischen Entwurfszeichnungen zusammen [Vitruv]. In den barocken Maschinenbücher setzt eine erste Normierung der technischen Zeichnungen ein, die mit der industriellen Revolution zur Grundlage der Fabrikation wird. Gegen Ende des 19. Jahrhunderts führen diese autoren- und firmenbezogenen Normierungen zu ersten nationalen und internationalen Standards, die im 20. Jahrhundert schließlich durch entsprechende Organisationen verwaltet werden (DIN, ISO).
In diesem Kontext werden auch standardisierte Darstellungen dynamischer Abläufe und Arbeitsvorgänge bildlich normiert dargestellt (Reuleaux, RKW). In der Physik der elektrischen Ströme ist die Verbildlichung von einer Darstellung des Versuchsaufbaus (Voltasche Säule, Leitungen, Kondensatoren) zur abstrakteren Darstellung von „Schaltkreisen“, einer Wortwahl die auf den Maschinenbau verweist, vom 18. zum 19. Jahrhundert sehr gut zu verfolgen.
Im 20. Jahrhundert führt die weitere Abstraktion der elektrischen Schaltelemente zu Blockschaltbildern, die als eine Variante allgemeiner Systemdarstellungen gesehen werden können. Aus den technologieunabhängig dargestellten logischen Bauelementen, die man bereits bei Konrad Zuse und John v. Neumann findet, entwickeln sich bildliche Darstellungen logischer Schaltungen, die weitgehend Details der Darstellung ihrer üblichen elektronischen Basis verbergen (z.B. Stromversorgung). Integrierte Schaltungen werden als ICs nur noch zu einem beschrifteten Funktionsblock mit Ein- und Ausgängen, die abstrakte Darstellungen der Verbindungsleitungen repräsentieren.
Dies entspricht der Darstellung des Zusammenspiels komplexer Zusammenhänge als Systemblockbilder. In der Formalen Logik, die sich ja eigentlich den Ableitungsbeziehungen zwischen Formeln widmet, werden seit Boole und Frege Beweise in Ableitungsbäumen und –diagrammen dargestellt. Auch die Mengenlehre verwendet bildliche Darstellungen, um die Beziehungen zwischen Mengen bildlich zu verdeutlichen. Abbildungen, die eigentlich eine Verallgemeinerung von Funktionen über Mengen sind, führen ebenfalls zu abstrakten Bilddarstellungen, die in der Kategorientheorie zu einer bildlichen, aber streng mathematischen Beweistechnik werden. Bildliche Darstellungen in Wissenschaft und Technik sind also durch ständig wachsende Abstraktion gekennzeichnet.
Auch in der Mathematik werden bildliche Darstellungen außerhalb der geometrischen Darstellung eingesetzt. Während die Geometrie über Jahrtausende die räumlichen Verhältnisse in bildliche übersetzt, also im wesentlichen eine Maßstabsveränderung und eine Abstraktionsleistung durch die Reduktion auf die einfachen Formen Punkt, Linie, Fläche vornimmt, wird in der Mathematik des 16. Jahrhunderts die Abbildung der Zeit mittels Funktionskurven f(t) entdeckt. Ausgangspunkt ist die bildliche Darstellung von Bewegung, sehr deutlich an der Darstellung des Flugs der Kanonenkugel, der ja nicht mit bloßem Augen beobachtet werden kann. Aristotelischen Theorien folgend verläuft dieser Flug in gerader Line, dem Impetus folgend, um nach Verbrauch dieses Impetus zu einem ebenfalls gradlinigen Sturz zum Massenmittelpunkt der Erde zu enden. Galileis anti-aristotelische Theorie weist diesem Flug jedoch eine Parabel zu. Beides führt zu völlig verschiedenen bildlichen Darstellungen. Wie weit die Galileischen Experimente diese neue Theorie erhärteten, bleibt umstritten. Die Differenz der Theorien ist durch die Darstellung als Funktionskurven jedenfalls unmittelbar einsichtig, so daß diese Differenz durchaus als Argument dienen konnte.
Mit der Herausbildung der Infinitesimalrechnung, besonders in der Leibnizschen Variante, ging der Funktionsbegriff von der Zeit t als abhängiger Variable zu allgemeineren Funktionen f(x) über, die eine beliebige Abhängigkeit einer Funktion f von einer Variablen x annahm. Die kartesische Koordinatendarstellung bildet eine Norm für diese Darstellungen, wenngleich andere (z.B. Polarkoordinaten) möglich sind.
Im wissenschaftlichen Kontext können unterschiedliche Bildsorten auch abhängig von der Technik ihrer Erstellung erzeugt werden: Abbildungen, Konstruktionspläne oder die Visualisierung von Rechenergebnissen, etwa als Graphen mathematischer Funktionen. Es gibt also eine Fülle nicht-illustrativer technischer und wissenschaftlicher Bilddarstellungen, die als Hilfsmittel präziser Argumentation eingesetzt werden. Eine naheliegende Frage ist die Frage nach der logischen oder argumentativen Struktur ihres Einsatzes.
3. Textliche Äquivalenzen zum Bild
Die Geburt der Mnemonik wird meist dem Sänger Simonides zugeschrieben, der die Toten des eingestürzten Palastes auf Grund ihrer Sitzordnung identifiziert. Simonides hatte dort bei einem Festmahl seinen Auftraggeber, aber zum Verdruß und Gespött desselben vor allem die Götter gelobt. Diese Götter ließen den ungeschickten, aber loyalen Sänger am Leben, doch die gotteslästerliche Gesellschaft wurde mit einem Streich erschlagen [1]. Namen und Begriffe sind nicht nur an ihrem Klang erkennbar, sie mögen auch Bilder evozieren. Die Ordnung der Namen läßt sich auch ohne Katastrophe visualisieren. Mnemonik und Rhetorik sind Schaltstellen, in denen zwischen Tönen, Schrift und Bildern hin und her geschaltet werden kann. Digitalisierung ist ein syntaktisches Äquivalent zu dieser semantischen und pragmatischen Koppelung.
Die Algebraisierung der Geometrie durch Descartes zeigt nach mehr als zwei Jahrtausenden der Trennung von Geometrie und Arithmetik mögliche Übergänge von der bildlichen Darstellung in das Reich der Zahlen und Variablen. Geometrische Eigenschaften und Beweise lassen sich durch Zahlen und Variablen, also algebraisch ausdrücken. Präzise Bilder werden zu präzisen Texten.
Der umgekehrte Weg wird in der Mathematik und der Technik ebenfalls eingeschlagen. Mit Karten und Diagrammen werden Ordnungen visualisiert. Land- und Seekarten bilden Entfernungen oder Flächenverhältnisse metrisch ab, wobei die visuellen Orientierungspunkte textlich markiert sind. In Diagrammen, wie z.B. Schaltbildern, Ablaufdiagrammen oder Organogrammen, lassen sich auch nicht-metrische Beziehungen darstellen. Einige Zweige der Mathematik, wie die Kategorientheorie oder die Theorie der Formalen Sprachen, nutzt Diagramme als praktisch unverzichtbare Elemente ihrer Beweistechnik.
4. Illustrationen
Der illustrative Charakter von Bildern in der wissenschaftlichen Literatur beruht meist auf Verdoppelungen. Typischerweise werden entweder Untersuchungsobjekte, die Text behandeln, abgebildet oder Kontexte bildlich dargestellt. Diese Art der Verdoppelung führt zu einer logischen Unterordnung, woraus eine verbreitete Geringschätzung von Bildern als „bloß“ illustrativem Material resultieren mag.
Die technisch-wissenschaftliche Illustration hat mit der Malerei einen Vorrat von Darstellungsmethoden gemeinsam, wie etwa die Perspektive oder die Wahl des Beobachterstandpunkts. Dies kann tiefer gehen, wie etwa bei der Wahl von Farben oder von Plazierungen, um die Aufmerksamkeit zu fokussieren. Wohl aus dieser Verwandtschaft heraus hat die jüngere Kunstwissenschaft der wissenschaftlichen und technischen Illustration einige Aufmerksamkeit gewidmet, die aber die Fragen nach der argumentativen Kraft und Verwendung typischerweise ausspart.
In bestimmten Kontexten, in denen ein reichhaltiges visuelles Datenmaterial vorliegt, wie etwa der Biologie oder der Medizin, behaupten Illustrationen ein eigenständiges Recht. Dort kann die bildliche Darstellung von der Illustration zur konstruktiven Denkhilfe oder zum wissenschaftlichen Argument werden, das auch der Überprüfung seines Wahrheitsgehaltes unterliegt. Dies läßt sich gut an Häckels Zeichnungen zur Evolution der Föten belegen, die bekanntermaßen zu einer bildlichen Lüge geführt haben: Man kann mit Bildern ebenso gut lügen wie mit Worten! [2]
5. Text im Bild, Bild im Text
Mit der Disziplinierung der Wissenschaften, der Aufteilung in von Gegenstand und akzeptierter Methode getrennten Sparten, ist das Verhältnis zum Bild sehr unterschiedlich ausgeprägt. In der heutigen Jurisprudenz ebenso wie in der Theologie herrscht der Text und seine Exegese. Dies war nicht immer so, denn die Rechtsfindung hatte früher einen starken Bezug zur Körperlichkeit, der sich heute noch in den Schwur- und Eidesformen wiederfindet. Das Verhältnis zum Bild in der Theologie hat eine Reihe von vertiefenden Untersuchungen erfahren, die die Rolle von Bild und Schrift in jüdischer, christlicher oder muslimischer Tradition oder von Bild, Schrift und Musik unter katholischen, lutherischen oder pietistischen Gesichtspunkten untersuchen. Die Departmentalisierung der Wissenschaften hat zu einer eigentümlichen Trennung textuntersuchender und bilduntersuchender Ansätze geführt. Zwischen dieses Raster fallen einige sehr interessante und keineswegs seltene Mischformen wie die Textbanner in Gemälden und Drucken, Beschriftungen, Titeln oder Legenden in grafischen Darstellungen, von Textblasen in Comics und Mangas oder die Verwendung von Titeln und Zwischentiteln in stummen oder Tonfilmen.
Text im Bild und Bild im Text stellt sich thematisch mit der breiten Verwendung von Hypertexten, vor allem im WWW als neu positioniertes Phänomen. Vernetzte, navigierbare Texte sind mit den Techniken der Hypertext Markup Language HTML und der Extended Markup Language XML zu Alltagsphänomenen auch in der wissenschaftlichen Publizistik geworden.
6. Zahlen
Eine besondere Form der textlichen Ergänzung von Bildern ist die Bemaßung. Maßangaben steigern den Orientierungswert von Land- und Seekarten oder von Bau- und Maschinenzeichnungen erheblich. Die metrische Darstellung verstärkt das Vorstellungsvermögen ebenso wie den praktischen Nutzen. Daß dies ein historischer Prozeß der Verwissenschaftlichung technischer Zeichungen ist, kann man an der Entwicklung der Maschinenbücher von Kyeser über Leupoldt bis Matsch0ß verfolgen, aber auch an Aussagen aus der Praxis, wie etwa der Auseinandersetzung von Charles Babbage mit seinem „unfähigen“ Mechaniker Clement, sehen. Clement zählte zu den berühmtesten Mechanikern Englands, konnte aber zum Verdruß Babbages weder Lesen noch Schreiben.
Zahlen als metrische Basis erfassen „bloße“ Quantität, so daß Hegel ebenso hämisch wie voreilig feststellt: „Zahlen, wie bei den Pythagoreern bemerkt werden wird, sind unpassende Medien, den Gedanken zu fassen.“ und „Zählen ist aber schlechte Manier.“ [3] Sein Problem liegt in der linearen Fortsetzbarkeit der Zahlen, denen die gewünschte Eigenschaft abgeht, eine zyklische Unendlichkeit (eine Spirale des Fortschreitens oder des Fortschritts) darzustellen: „Man hat mit Recht die Unendlichkeit unter dem Bilde eines Kreises vorgestellt, denn die gerade Linie geht hinaus und immer weiter hinaus und bezeichnet die bloß negative, schlechte Unendlichkeit, die nicht wie die wahre eine Rückkehr in sich selbst hat.“ [4] Woher das „Recht“ zur zirkulären Unendlichkeitsvorstellung kommt, belegt Hegel freilich nicht, so daß wir uns einer anderen Eigenschaft der Zahl zuwenden können, die über das Messen hinausgeht, nämlich ihrer Alphabetizität.
Ziffern als Bauelemente der Zahlen sind mit gleichem Recht zur Konstruktion eines Alphabets geeignet wie Buchstaben; die historische Äquivalenz dieser beiden Betrachtungsweisen ist in der Nutzung des griechischen Alphabets angelegt, aber auch im hebräischen oder arabischen. Historisch sind Zahlen jedoch eigenständig neben Text und Bild entstanden: Zählen ist etwas anderes als Schreiben oder Zeichnen. Im griechischen Alphabet werden dennoch die gleichen Zeichen für Buchstaben und für Zahlen (und für Töne und für Farben) verwendet. Dennoch hat es bis Francis Bacon und Leibniz gedauert, bis die im hebräischen, griechischen oder arabischen Alphabet so unmittelbare Vergleichbarkeit von Ziffer und Buchstabe auch als symbolische Einheit gedeutet wurde.
In der Kodierungstheorie wird von der Semantik des Alphabets abstrahiert: jeder endliche Zeichenvorrat kann unabhängig von seiner Herkunft und Nutzung als Alphabet bezeichnet werden. Die binäre Menge {0,1} oder allgemeiner jedes zweielementige Alphabet kann als Basis der aktuellen digitalen Technik eingesetzt werden – ebenso wie alle anderen Alphabete. Mit solchen Kodes lassen sich alle Zahlen und Messungen, aber auch alle Buchstaben, Texte und Bilder eindeutig kodieren. Technisch geschieht dies durch Kodierungstabellen oder durch Schaltungen, nämlich Analog/Digital-Wandler, kurz A/D-Wandler. Auch der umgekehrte Weg kann beschritten werden: D/A-Wandler erzeugen aus dem Kode das ursprüngliche Signal – im Rahmen der gewählten Meßgenauigkeit.
Es geht aber bei diesen alphabetischen Kodes nicht mehr nur um Messungen: Kodierte Ziffern können als Binärsignale gespeichert und übertragen werden, vor allem können sie in Digitalprozessoren, also Computern, Controllern und anderen technischen Bauformen programmiert verarbeitet werden. Die Vorstellung, daß man mit binärem Kode rechnen kann, hat Leibniz entwickelt, der sogar eine binäre Rechenmaschine ins Auge faßt (und aus praktischen Gründen verwirft). Die Idee, daß Rechnungen und andere technische Abläufe als Zahlenfolgen geschrieben werden können, ist eine Geburt des 20. Jahrhunderts. David Hilbert, Kurt Gödel, Alan Turing, John v. Neumann sind die geistigen Väter dieses Berechenbarkeitsbegriffs. Konrad Zuse, Howard Aiken, Atanasoff, Eckert und Mauchly haben sie zuerst praktisch in Rechenmaschinen umgesetzt.
7. Programmiergestützte Konstruktionen und Pläne
Mit dem verstärkten Einsatz von Computerprogrammen dringen berechnete Abhängigkeiten, die zuvor als eigenständiges Bilderzeugungsverfahren neben Abbildungen und Plänen genannt wurden, in diese ein. Die Visualisierung sensorisch erfaßter digitalisierter Daten wird damit sowohl Ergebnis einer bildgebenden Sensorik wie von Rechnungen zur Darstellung dieser Sensordaten, wobei die unvermeidlichen Abbildungsfehler ausgeglichen werden können, aber auch neue unbeabsichtigte Fehler eingeführt werden können. Auch rechnergestützt erstellte Konstruktionspläne integrieren bereits Rechnungen, bevor sie auf dem Bildschirm, dem Plotter oder dem Drucker erscheinen. Die Kategorie des berechneten Bildes dringt so in die beiden Kategorien des Planes und der Abbildung ein.
Historisch waren Maschinenkonstruktionen, Radarbilder und Katasterpläne wohl die erste Nutzung des Rechners zur Bildgenerierung. Computer Aided Design (CAD) wurde im MIT zur Berechnung von Kreuzgelenken bei Hubschrauberrotoren, deren Zeichnung und der Steuerung von numerisch gesteuerten CNC-Fräsmaschinen eingesetzt. Im Rahmen des Semi Automatic Ground Environments (SAGE), des US-amerikanischen Luftabwehrschildes im Kalten Krieg wurden Radarbilder auf Bildschirmen dargestellt und digital erfaßt, sowie zur Berechnung erwarteter Flugbahnen eingesetzt. In Deutschland schließlich erfüllte sich Konrad Zuse schließlich seinen alten Bauingenieurstraum eines rechnergesteuerten Zeichentisches, des Graphomaten Z64 der Zuse KG, dessen erster Einsatz die Erstellung von Katasterplänen war, der aber auch allgemeiner als programmiertes und rechnendes Zeichenbrett dienen konnte.
Ein Bereich, in dem der Einsatz von Computern zu einer radikalen Neubestimmung des Konstruktionsplanes geführt hat, liegt nicht ohne Ironie, im Entwurf digitaler Schaltungen. Hier ist weder der Entwurf von Halbleiterspeicherbausteinen noch der Entwurf neuer Prozessoren ohne heftigen Rechnereinsatz denkbar. Moderne Prozessoren enthalten mehr als 40 Mio. Schaltelemente mit einer Tendenz zur Verdoppelung in weniger als 18 Monaten. Dies führt zu Konstruktionsplänen, die kein Mensch mehr vollständig überblicken kann.
Sowohl das Layout der Schaltelemente wie die Entflechtung der Leiterbahnen wird deshalb weitgehend programmiert vorgenommen, wobei bestenfalls einzelne kritische Stellen noch einem geschulten menschlichen Blick unterworfen werden. Ähnlich wie bei den Programmiersprachen werden nur noch die höchsten Abstraktionsstufen von den Konstrukteuren vorgegeben, die Details des Entwurfs werden von spezialisierten Programmen, Silicon Compilern, festgelegt. Die Qualität der erzeugten Schaltungen wird derart zu einer sehr schwer überprüfbaren Herausforderung.
Neben dem computergestützten Hardwareentwurf sind auch visuelle Techniken des Programmierens zu nennen, aber vor allem sind auch die klassischen Planungstechniken der Architekten, des Maschinenbaus und der Bauingenieure radikal durch den Einsatz von CAD-Techniken verändert worden.
8. Programmtechnisch visualisierte Daten
Mit dem Fortschritt der digitalen Sensortechnik entstehen in Bereichen wie der Medizin oder der Weltraumtechnik enorme Datenmengen, die als Zahlenwerte nicht oder doch nur sehr schwer erfaßbar sind. Es bieten sich unterschiedliche Wege zur Analyse solcher Datenmengen an.
Mit einer vollautomatischen Verarbeitung, bei der eine bestimmte Fragestellung durch eine programmierte Datensuche beantwortet wird, lassen sich Extrema in den Daten, wie der minimale Wert einer gemessenen Größe oder Muster und Regelmäßigkeiten wie im SETI-Projekt bei der Suche nach extraterrestrischer Intelligenz, suchen. Diese Automatisierung setzt allerdings voraus, daß die Programmierer einigermaßen präzise wissen, wonach sie suchen (sollen).
Da die Suche in solchen Datenbeständen typischerweise eher an die Sachkenntnis von Experten und Fachleuten appelliert als an die Kompetenz von Informatikerinnen oder Programmierern, ist die sachbezogene Darstellung aller Daten durch Visualisierung eine naheliegende Alternative.
Typische Vertreter dieser Visualisierungen sind die Aufbereitung von Vermessungsdaten durch Satelliten, das Space Shuttle oder hochfliegende Flugzeuge mit computerkorrigiertem SAR (Side Aperture Radar) oder die unterschiedlichen Formen der Computer Tomographie, also Kernspintomographie oder Magnetresonanztomographie. Die erzeugten Sensordaten sind in beiden Fällen nur durch komplexe umrechnende Programme visualisierbar.
Nun gibt es freilich auch mit dem Computer keine neutralen Visualisierungsfunktionen; jede enthält spezifische Verzerrungen, genau wie die autografischen Medien der Fotografie oder des Films unvermeidliche systembedingte Verzerrungen und Verfälschungen erzwingen. Ein wichtiger Unterschied besteht freilich darin, daß optische Verzerrungen typischerweise durch kontinuierliche Funktionen beschreibbar sind, während Programme in hohem Maße diskontinuierlich, eben beliebig diskret oder sprunghaft verlaufen. Die Interpretation solcher Daten und Programme stellt erhebliche Anforderungen an ihre theoretische Analyse. Die methodischen Grundlagen dieser Interpretationen sind, gelinde gesagt, offen.
Wie problematisch die Visualisierung von Computerdaten sein kann, mag man an visualisierten Datenspuren aus Elementarteilchenexperimenten sehen, bei denen isolierte Ereignisse im Elementarteilchenbereich mit Aufzeichnungszeiten im Mikro- und Nanosekundenbereich zur Stabilisierung einer Theorie dienen sollen. Dort kommt es neben vielen ob ihrer Unschärfe verworfenen Beobachtungen gelegentlich zu sogenannten Computericles, Teilchenspuren, die vom Auswertungsprogramm festgestellt, aber bei einer genaueren Nachprüfung dann doch als zweifelhaft verworfen werden.
9. Visualisierung von Simulationsdaten
Neben sensorisch erfaßten Daten spielen Daten, die durch programmierte Simulation entstehen, eine immer größere Rolle in Technik und Wissenschaft: Die größten bislang gebauten Rechenanlagen; ASCII White und ASCII Blue, dienen der Simulation von Atombombenexplosionen. Kleinere Anlagen werden zur Simulation neuer Produkte wie Flugzeugen oder Autos oder zur Simulation von Wettervorhersagen eingesetzt. Die dabei entstehenden Datenmengen überschreiten die sensorisch erfaßter Datenmengen um ein Erhebliches. Die Unterscheidung von erfaßten und berechneten Daten wird derart zu einem äußerlichen Kriterium; die Probleme bei der Interpretation sind eng verwandt. Auch hier stellt die Interpretation solcher Daten und Programme erhebliche Anforderungen an ihre theoretische Durchdringung, und die methodischen Grundlagen dieser Interpretationen sind derzeit offen.
10. Schluß
Bild, Schrift und Zahl bilden eine Einheit in der wissenschaftlichen Publikation, die je nach wissenschaftlicher Disziplin in unterschiedlicher Weise methodisch eingesetzt werden. In der Tradition der Mathematik und der technischen Wissenschaften können Grafiken eine äußerst präzise Notation bilden, die argumentativ und beweistechnisch selbstständig neben den logischen Beweisketten eingesetzt werden.
Die Konstruktion von Grafiken zur Darstellung von Objekten und ihrer vielfältigen Abhängigkeiten führt sowohl zu neuen Einsichten wie zur Visualisierung komplexer, schwer erfaßbarer Sachverhalte.
Durch die Digitalisierung, also die Kodierung beliebiger Daten als Ziffern, ergeben sich völlig neue Möglichkeiten der Speicherung, Übertragung, Verarbeitung und Visualisierung wissenschaftlicher Sachverhalte. Die Interpretation und Verwendung konstruierter und durch Programme erzeugter technischer Bilder ist eine methodische Herausforderung in allen Disziplinen.
[1]Im übrigen galt Simonides als recht geschäftstüchtig. So war er der erste griechische Profisänger, der sich eine eigene Statue errichten ließ.
[2]Vgl. Fedrico di Trocchio, Der große Schwindel – Betrug und Fälschung in der Wissenschaft, Frankfurt am Main/New York: Campus, 1995
[3]G.W. F. Hegel, Grundlinien der Philosophie des Rechts S.104
[4]Freilich sagt Hegel auch in einem Zusatz zur Enzyklopädie der philosophischen Wissenschaften I, S.357: „Der Prozeß des Maßes ist nicht bloß die schlechte Unendlichkeit des unendlichen Progresses in der Gestalt eines perennierenden Umschlagens von Qualität in Quantität und von Quantität in Qualität, sondern zugleich die wahre Unendlichkeit des in seinem Anderen mit sich selbst Zusammengehens. Qualität und Quantität stehen im Maß einander zunächst als Etwas und Anderes gegenüber. Nun aber ist die Qualität an sich Quantität und ebenso ist umgekehrt die Quantität an sich Qualität. Indem somit diese beiden im Prozeß des Maßes ineinander übergehen, so wird eine jede dieser beiden Bestimmungen nur zu dem, was sie an sich schon ist, und wir erhalten jetzt das in seinen Bestimmungen negierte, überhaupt das aufgehobene Sein, welches das Wesen ist. Im Maß war an sich schon das Wesen, und sein Prozeß besteht nur darin, sich als das zu setzen, was es an sich ist. – Das gewöhnliche Bewußtsein faßt die Dinge als seiende auf und betrachtet dieselben nach Qualität, Quantität und Maß. Diese unmittelbaren Bestimmungen erweisen sich dann aber nicht als feste, sondern als übergehende, und das Wesen ist das Resultat ihrer Dialektik.“
[Vitruv]Marcus Vitruvius Pollio (auch: Vitruv oder Vitruvius), römischer Architekt, Ingenieur und Schriftsteller des 1. Jh. v. Chr.
- Barrierearm nach WCAG
- Gütiges XHTML 1.1
- Geändert am 3. November 2005, sak