Theorie der Informatikanwendungen in Wertschöpfungsprozessen
Peter Brödner, Gerhard Wohland, Kai Seim
Aufruf zu einer AG der Theorietagung in Bad Hersfeld 2003
In den vergangenen Jahren konnte man vielfach Zeuge von Havarien der verschiedensten DV-Projekte werden. Mit dieser immer gleichen Abfolge scheiternder Projekte wollen wir uns nicht abfinden, zum einen aus wissenschaftlichem Interesse, zum anderen aufgrund der wirtschaftlichen Rahmenbedingungen, in denen wir arbeiten. Die heute beobachtbaren Havarien haben unserer Meinung nach folgendes gemeinsam:
Sie sind historisch neu in dem Sinne, dass sie ihre Ursache in der zunehmenden Globalisierung haben, die zu zunehmender Komplexität der Märkte und damit der zu lösenden Probleme geführt haben.
Sie sind Scheitern am komplexen Ende der Probleme, nicht am komplizierten.
Ein Teil unserer Motivation mag sein, dass die Arbeit der Pathologen (bei aller Wertschätzung für diese anstrengende Profession) für uns keinen Vorbildcharakter hat. Ein weiterer Teil mag sein, dass Projekterfolge mehr Appeal haben als das pure Feststellen des Scheiterns und ggf. das Diagnostizieren der (immer gleichen?) Gründe.
Es scheitern SAP-Projekte an der Komplexität der abzubildenden Prozesse, am sog. Widerstand der Nutzer (die Sehnsucht der Berater - oder in heute eher üblichem Sprachgebrauch: der Consultants - nach dem kundenlosen Projekt grüßt), es scheitern große Entwicklungsprojekte (für europäisch geplante Produktentwicklungen, für unternehmensindividuelle Lösungen usw.).
Um es in einem schnellen Kurzschluß aufzulösen (der spätestens in der Tagung hergeleitet werden muß): Unserer Profession (der Informatik) scheint keine Theorie zur Verfügung zu stehen, die es erlauben würde, an diese Profession (und damit an uns Informatiker) heran getragene Probleme abzulehnen. Wir (hier gemeint: Informatiker) können nicht Nein sagen, wenn uns jemand bittet, ein Problem mit DV zu lösen. Im Gegenteil ist für uns prinzipiell jedes Problem algorithmisierbar und damit durch DV lösbar. Diese Haltung bezeichnen wir als Naivität der Informatik. Bei dieser Ablehnung geht es uns nicht darum, der Verantwortung zu entfliehen o.ä.; vielmehr suchen wir nach einem geeigneten Werkzeug, Probleme dorthin zu verweisen, wo sie gelöst werden können.
Für die Informatikwissenschaft bleibt festzuhalten, dass sie bis heute keine Theorie, geschweige denn (wenigstens) Methoden hervorgebracht hätte, die den immer wiederkehrenden Fehlschlag des Informatikeinsatzes so behandeln, dass er mindestens sanierbar wird, im Idealfall von Beginn an vermieden werden kann. Wirkungsforschung ist in der Informatik im besten Falle geduldetes "Hippietum", das man sich im Verlaufe der Jahre, z.B. zur Befriedung studentischer Streikaktionen, verbunden mit der Befriedigung entsprechender politischer Bedürfnisse, eingehandelt hat. Professuren für "Informatik und Gesellschaft" behandeln z.B. juristische Aspekte des Informatikeinsatzes, wie Datenschutzrecht, Patent- und Urheberrecht usw., nicht jedoch die Wirkung auf die Ökonomie der einsetzenden Organisation oder gar der Branche. Auch die sogenannten Bindestrichinformatiken reflektieren diese Fragestellungen nicht, sondern bleiben eng den fachlichen Problemen ihrer jeweiligen Herkunftsdisziplinen verbunden.
Für die IT-Branche gilt vergleichbares. Bis in die jüngste Vergangenheit, kulminierend in der aufgeblasenen New Economy und Web-Euphorie, hat diese Branche immer wieder versprochen, dass durch Einsatz der von ihr entwickelten und angebotenen Systeme ein betriebswirtschaftlicher Nutzen entsteht. Erst durch den Zusammenbruch der New-Economy-Blase ist ein Rechtfertigungszwang für Investitionen in Informatiksysteme entstanden, der dem "normaler" Investitionen in Anlagegüter (als solche werden Informatiksysteme in aller Regel bilanziert) entspricht. Das Ergebnis ist, zugegebener Maßen, erschreckend: viele Investitionen erscheinen heute nutzenlos (als bewußte Abgrenzung zu nutzlos). Zumindest läßt sich der tatsächliche Rationalisierungseffekt nicht nachweisen, und sei es, weil die (potentiellen) Nutzer nicht (mehr?) bereit sind, für diesen Effekt die Verantwortung zu übernehmen. Die Reaktion erschöpft sich bis jetzt noch darin, mit qualitativem Nutzen zu argumentieren, Skaleneffekte zu prognostizieren u.ä., ohne den Beweis überzeugend führen zu können.
Mit diesem Text wollen wir neugierig machen auf eine Diskussion über eine Skizze zu einer Theorie. Diese Theorie fußt auf mehreren "Stützen":
Zu Beginn wollen wir uns mit der Behauptung auseinander setzen, dass der Einsatz sog. Informationssysteme (nach unserem Sprachgebrauch DV-Systeme) produktivitätssteigernd sei. So sei u.a. eine Ursache für den Erfolg der New Economy in den USA die Produktivitätssteigerung aufgrund von Informatiksystemen. Wir sind dem gegenüber der Ansicht, dass sich schon auf Basis der heute zugänglichen und aktuellen volkswirtschaftlichen Statistiken dieser Effekt nicht nachweisen lässt, eher das Gegenteil. Vor dem Hintergrund der vielen nachgewiesenen Falschbilanzierungen in den USA und Europa (z.B. ENRON, Worldcom, Comroad, um nur die prominentesten Beispiele zu nennen) stellt sich vielmehr die Frage, ob durch die wohl nötig gewordene Korrektur der volkswirtschaftlichen Bilanzen mindestens der letzten drei Jahre (zumindest für die USA) das ermittelte Produktivitätswachstum nicht um ca. 2 % nach unten korrigiert werden muss, so daß der behauptete Effekt eher negativ wird.
Anschließend versuchen wir mit Hilfe einiger Basisunterscheidungen, die wir als "Denkwerkzeuge" verwenden wollen, die Basis für die weitere Theoriearbeit zu legen. Dabei unterscheiden wir zwischen tot und lebendig, kompliziert und komplex, Daten und Information, Wissen und Können, Methode und Theorie, um nur die wichtigsten zu nennen.
Diese Unterscheidungen sind für uns die Basis für die Unterscheidung zwischen klassischen (stoff- und energiewandelnden) Maschinen und datenverarbeitenden (Computer-) Maschinen. Wir versuchen zu zeigen, dass Computer eine eigene Klasse von Maschinen darstellen, nämlich "semiotische Maschinen". Mit dieser Sichtweise gelingt es uns, viele der Probleme, die wir eingangs als Basis für unsere Arbeit aufgeführt haben, zu diagnostizieren und auch zu lösen; mindestens in dem Sinne zu lösen, dass wir uns in der Lage sehen, bestimmte Probleme als "unlösbar" für die Informatik abzulehnen.
In einem ersten Schritt haben wir versucht, unseren Theorieansatz für den Einsatz von DV-Systemen in Wertschöpfungsprozessen produktiv zu machen. Dabei geht es uns darum, Kriterien für die Systemgestaltung zu definieren, um die eingangs erwähnten Havarien gar nicht erst aufkommen zu lassen. Dazu haben wir versucht, einige Merkmale (oder auch Prüfkriterien) zu definieren, die DV-Systeme erfüllen müssen, um auch in modernen Unternehmen (im Sinne von: konkurrierend in modernen, globalisierten Märkten) erfolgreich eingesetzt werden zu können:
Neutralität (statt Flexibilität)
Werkzeug-Charakter (statt Prozessabbildung)
Medialität (statt Isolation)
Datenhoheit (statt Integration)
Der von uns vorgeschlagene Theorieansatz soll befähigen, Innen und Außen zu unterscheiden, d.h. über die Zuständigkeit für Probleme zu entscheiden. Das macht es möglich, die Informatik auf das Gebiet zu beschränken, auf dem sie erfolgreich sein kann; oder mit einem deutschen Sprichwort: Schuster, bleib bei Deinem Leisten.
Informatik ist u.E. zuständig für Kompliziertes; Komplexes muss sie lernen abzulehnen. Die Theorie der Informatik, die wir hier anbieten, ist das Werkzeug, Komplexes sichtbar zu machen, um es abzulehnen. Mit dem übrig bleibenden Rest des Komplizierten kann sich die formale Wissenschaft Informatik dann mit großer Chance auf Erfolg befassen.
Erste Ideen für Diskussionsthemen
Lässt sich das Produktivitätsparadoxon (ggf. branchenspezifisch) auch in Deutschland / Europa, spezieller: in der betrieblichen Praxis, nachweisen?
Was ist die historische Wurzel für den blinden Fleck der Informatik, der sie immer wieder dazu treibt, "unmögliche" Problemstellungen anzunehmen? Wir vermuten hier eine ungebrochene Traditionslinie von Taylor bis zu den aktuellen Prozeßoptimierern.
Wie müssen "moderne" DV-Systeme aussehen, um erfolgreich, sprich nutzbringend (im Sinne von: Mehrwert schaffend) eingesetzt werden zu können? Sind die von uns aufgeführten Prüfkriterien die richtigen? Fehlen wichtige Kriterien?
Dabei sind wir vor allem an einer Prüfung durch "Anwender" interessiert - "Anwender" im Sinne desjenigen, der mit Hilfe von DV-Systemen Geld verdienen muss. Für einen ersten Einstieg in das Thema verweisen wir auf unseren Bericht zur AG in Bad Hersfeld 2002, in dem wir unsere Thesen detailliert ausgearbeitet haben. Dies ist unser Angebot, um die Diskussion zu beginnen. Antworten oder Arbeiten in ähnliche Richtung sind herzlich willkommen.
Literatur
Peter Brödner, Gerhard Wohland, Kai Seim: Skizze einer Theorie der Informatikanwendungen. In Frieder Nake, Arno Rolf, Dirk Siefkes (Hrsg.): Wozu Informatik? Theorie zwischen Ideologie, Utopie, Phantasie. Tagung Bad Hersfeld 2002. Bericht in Vorbereitung.
http://tal.cs.tu-berlin.de/siefkes/Hersfeld
broedner@iatge.de, gwohland@debis.com, kai.seim@gerling.de 19.11.02