Folgen des Marginalen – Zur Technikfolgenabschätzung der KI

Lena Bonsiepen

(erschienen in: G. Cyranek & W. Coy (Hrsg.): Die maschinelle Kunst des Denkens. Perspektiven und Grenzen der Künstlichen Intelligenz. Braunschweig/Wiesbaden: Vieweg 1994)

Die KI und insbesondere die Expertensystemtechnik haben wie kaum ein anderes Gebiet der Informatik Wissenschaftler, Politiker und Gewerkschaftler angeregt, phantastische Erwartungen wie auch tiefe Besorgnis über das Potential dieser Technik und über ihre Auswirkungen auf die Gesellschaft zu formulieren. Dies hat die förderpolitischen und finanziellen Möglichkeiten der KI erweitert, aber auch den Blick auf das Mögliche und Wünschenswerte verstellt. Überzogene Erwartungen gingen mit respektablen Erfolgen einher, philosophische Grundsatzfragen vermischten sich mit rein technischen Herausforderungen und Antworten.

Die Technikbewertung der KI hat in den letzten Jahren breiten Raum im engen Rahmen der TA-Förderung (technology assessment) gefunden: Allein zwei Enquête-Kommissionen des Bundestags haben sich mit den möglichen Folgen der Expertensystemtechnik befaßt, zwei Forschungsprojekte im Rahmen des SoTech-Programms der nordrhein-westfälischen Landesregierung, zwei BMFT-Projekte zur TA der KI und der Expertensysteme, zahlreiche Tagungen des DGB wie der Einzelgewerkschaften, evangelischer Akademien und sonstiger Bildungseinrichtungen wurden durchgeführt (s.u.). Dies alles begleitete den Fortgang der KI-Forschung und Entwicklung, wobei die Erfolge weit hinter den kurzfristigen Erwartungen der Forscher und Kritiker zurückblieben. Es scheint an der Zeit, die vergangenen Urteile der TA noch einmal kritisch Revue passieren zu lassen und dabei einige Fragen an die KI wie an die TA zu stellen.

TA-Projekte zur Expertensystemtechnik

Kurzbeschreibung und Literaturhinweise in [5]. Die Jahreszahlen beziehen sich auf das Jahr der Abschlußberichte.

Absichten und Ziele der TA-Projekte

Mitte bis Ende der 80er Jahre, zur Blütezeit der TA-Projekte, »... war es unter den "Experten" der Expertensystemtechnik nicht streitig, daß diese in vielfacher Hinsicht den Umgang mit menschlichem Wissen revolutionieren würde.« [14] Die KI, insbesondere ihr praxisrelevantester Teil - die Expertensystemtechnik - wurde als Schlüsseltechnologie mit Multiplikatorwirkung betrachtet, die eine Perspektive breiten technischen und sozialen Fortschritts versprach. Unter diesem Blickwinkel kann es nicht verwundern, daß die KI an prominenter Stelle der Kritik der Technikfolgenforschung unterzogen wurde, insbesondere, da man erhoffte, daß sie als »Leittechnologie« auch Rückschlüsse auf die Entwicklung anderer Gebiete der Informations- und Kommunikationstechnik erlauben würde. Stellvertretend für die Absichten und Ziele der TA-Studien sei die folgende Einschätzung zitiert:

»An den Expertensystemen lassen sich die kulturellen Kämpfe beobachten und öffentlich sichtbar austragen, die von den fachlichen Fragen der technischen Machbarkeit zu den öffentlich zu debattierenden Fragen der sicheren Beherrschbarkeit und sozialen Erwünschtheit von bestimmten Computersystemen überleiten. In diesen Kämpfen, in denen um Nutzen und Notwendigkeit, Sinn und Unsinn, Richtung und Risiko einer technischen Entwicklung gestritten wird, ... bilden sich Leitorientierungen und Gestaltungsmodelle heraus, die als technologisches Paradigma die Entwicklung der übrigen Informationssysteme orientieren können. Diese frühzeitig in Gang gesetzte Debatte und der noch ?unreife? Zustand dieser Wissenstechnologie können daher als Chance gesehen werden, absehbare Fehlentwicklungen und unerwünschte Wirkungen noch in der frühen Phase der Technikgenese zu korrigieren.« [13]

Heute, nach weitgehendem Reputationsverlust der KI in der Industrie, nach heftigen Debatten über eine Krise der KI bis hin zur Vermutung ihres unmittelbar bevorstehenden Endes [4], die allerdings auch in ruhigere Diskurse über den »Weg der KI in die Normalität« [2] einmünden, werden auch die Ergebnisse der TA-Studien bilanziert:

»Zusammen mit anderen TA-Studien und kritischen Beiträgen konnte der Bericht der Enquête-Kommission zweifellos zur Entmythologisierung der KI beitragen. ... Die Tatsache, daß der Bundestag sich mit Expertensystemen und KI befaßt, führte möglicherweise dazu, daß die kritischen Beiträge und Einschätzungen von der KI-Forschung aufmerksamer aufgenommen wurden, als wenn keine Beschäftigung der Politik mit der KI stattgefunden hätte. ... Es wurden Probleme thematisiert, die für die Gesamtheit der Informations- und Kommunikationstechniken charakteristisch sind.« [12]

»Wir haben es in unserer Wissenschaftskultur erreicht, daß ein Stück Aufklärung - und zwar innerwissenschaftlicher Art - geleistet wurde. Aufklärung im Kantschen Sinne als Herausgehen aus der selbstverschuldeten Unmündigkeit. ... Ich meine, daß es unter anderem das Verdienst der philosophisch geprägten Wissenschaftler in unseren Diskursen ist, diesen Glauben infrage zu stellen, jedenfalls was das Wissen betrifft. Was die Rolle der Experten angeht, scheint mir in dem hier betrachteten Projekt ein erhebliches Stück Arbeit an der Entmythologisierung geleistet worden zu sein.« [14]

Die Nüchternheit und Bescheidenheit dieser Einschätzungen ist auffallend; der wesentliche Beitrag der TA scheint demnach in der Entmythologisierung der KI zu bestehen. Fraglos trifft dies für die an den Diskursen beteiligten Wissenschaftler zu, offen bleibt freilich, ob und wie diese Erkenntnis in Industrie und KI-Forschung aufgenommen wurde. Die veränderten Erwartungen an die Expertensystemtechnik, die Berücksichtigung sozialer und technischer Risiken, die völlige Aufgabe der Leitidee einer Ersetzung von Fachleuten durch Expertensysteme resultiert trotz gleichlautender Analysen der TA-Studien und kluger Gestaltungsrichtlinien kaum aus dem TA-Prozeß, sondern eher aus den industriellen Erfahrungen mit KI-Systemen.

In einer ausführlichen Experimentierphase, die nicht zuletzt durch die staatliche KI-Förderung ermöglicht wurde, scheiterten viele Expertensystemprojekte an der industriellen Nicht-Machbarkeit oder mangelnder Übertragbarkeit der Laborergebnisse in die Praxis. Solche Fragen haben die Entwicklung entschieden. TA- und Diskursprojekte mögen die daran beteiligten Wissenschaftler klüger gemacht haben, zur Technikverhinderung oder -gestaltung haben sie kaum beigetragen.

Ein dominanter Teil der KI-Forschung setzt sich - zumindest in ihren Festreden - nonchalant über diese Überlegungen hinweg und verfolgt die alten Paradigmen der intelligenten Maschine. TA-Ergebnisse gelten in solchen Umgebungen als populärwissenschaftliche Diskussionen.

»It seems to me that although there might be popular questions, like the Turing test, most of us are beyond them now. ... Instead of worrying about whether a particular machine can be intelligent, it is far more important to make a piece of software that is intelligent. ... We've always wanted to build a man out of clockwork - not to denigrate man but, rather, to honor clockwork and show the perfections of the universe mirrored in the perfection and eternity of mankind.« [15]

Was hat Expertensysteme möglich gemacht

Der Sog der Anwendungen

Die Expertensystemtechnik schien eine Antwort für Anwendungsgebiete der Informatik zu sein, deren Probleme nicht algorithmisch lösbar sind. Solche Gebiete zeichnen sich u.a. dadurch aus, daß zwar Parameter des Systemverhaltens bekannt sind, es aber kein vollständiges Modell der Interdependenz der Parameter gibt. In der Terminologie der Softwareentwicklung bedeutet dies, daß keine klare Spezifikation des Systemverhaltens zur Verfügung steht. Da es andererseits aber solide menschliche Erfahrungen in diesen Bereichen gibt, d.h. Experten, die aufgrund ihres Erfahrungswissens zuverlässig die Probleme des Gebiets lösen können, bestand die Hoffnung, diese Gebiete zumindest teilweise in Programme zu überführen. Für die in der Industrie gängigen softwaretechnischen Methoden der 70er Jahre waren diese Aufgaben zu schwierig, der industrielle Automatisierungsdruck verlangte jedoch nach Software-Lösungen.

Die Versprechungen der Expertensystemtechnik und ihre Anfangserfolge bewirkten insbesondere, daß man sich an derartige schwierigere Aufgaben heranwagte. Eine der Hauptwirkungen der Expertensystemtechnik besteht sicherlich darin, daß die Informatik neue Anwendungsgebiete erobert. So gibt es heute eine Reihe von Anwendungsprogrammen in Gebieten mit den oben beschriebenen Charakteristika, die mit Hilfe der Expertensystemtechnik programmiert wurden, wobei an dieser Stelle nicht erörtert werden soll, warum ihr praktischer Einsatz gelang oder verworfen wurde oder zu welchem Anteil Methoden der KI verwendet wurden.

Was war die materielle Basis, auf der die anfänglichen Erfolge der KI und der Expertensystemtechnik gedeihen konnten? Diese Frage stellt sich vor allem, um zu klären, ob es sich bei der KI tatsächlich um eine Leittechnologie handelt oder doch nicht eher um eine Randerscheinung innerhalb der Informatik.

Die materielle Basis

Vorrangig liegt den Forschungen und Entwicklungen zur KI die Leitideologie zugrunde, daß alles Beschreibbare auch programmierbar sei. Aus dieser Vorstellung nährt sich das Bestreben der KI, intelligente Maschinen zu bauen, und ihretwegen wird die KI seit ihrem Bestehen der Kritik philosophischer und soziologischer Diskurse unterzogen. Es ist aber nicht die KI allein, die diese Leitvorstellung verfolgt, die Informatik insgesamt »verdankt ihre Bewegung dem Ziel, Maschinen intelligent zu machen«. [9] »... auch die Vertreter der PI [Praktischen Informatik] peilen oft (wenn auch aus größerer Entfernung) die KI an. Ganzhorn bezeichnet die Informatik als ?Werkzeugwissenschaft des Geistes?..., Bauer erwartet von der Informatik ?die Befreiung des Menschen von der Last eintöniger geistiger Tätigkeit?.« [2]

Ein weiterer wichtiger Grund für den Erfolg der KI liegt in den verfügbaren und verwendeten Programmier- und Entwicklungsmethoden. Der Methodenvorrat der industriellen Praxis in den 70er Jahren beschränkte sich im wesentlichen auf Assembler, Fortran, Cobol und PL/1 und stellte damit kaum das geeignete Rüstzeug für unzureichend spezifizierte Aufgaben bereit.

Die KI hat in den 70er Jahren Methoden und Sprachen entwickelt, die die Programmierung schwieriger Aufgaben erleichterten. Das an militärischen Anforderungen ausgerichtete Wasserfallmodell der Softwaretechnik spielte in der Laborumgebung der KI-Programmierung nie eine Rolle; Prototyping, zyklische Programmentwicklung, inkrementelle Programmierung waren für ihre experimentelle Vorgehensweise selbstverständlich. Hinzu kam die Erprobung regel- und objektbasierter Sprachen, die gegenüber imperativen Sprachen weit flexibler die ständigen Änderungen der inkrementellen Programmierweise unterstützen.

Als Beispiel für die Überlegenheit der KI-Methodik gegenüber der industriellen Praxis sei an das Konfigurationssystem XCON der Firma Digital Equipment erinnert. Es gab bei DEC in den 70er Jahren zwei Versuche, die Konfigurationsaufgabe zu programmieren, der eine in Cobol, der andere in Fortran. Beide scheiterten. Erst die regelbasierte Sprache OPS5 und das hochgradig inkrementelle Vorgehen der Entwickler von XCON ermöglichten ein über lange Zeit eingesetztes, erfolgreiches Programm.

Aber nicht allein die KI transzendierte die frühzeitliche Programmiermethodik der Industrie. Zeitgleich fanden in der Softwaretechnik Umorientierungsprozesse statt, die allmählich in die Praxis diffundierten: zunächst strukturiertes Programmieren [7], später die Abkehr vom Wasserfallmodell [1], Prototyping [3] sowie der heute favorisierte Programmierstil der Objektorientierung. Die beiden Gebiete - KI und Softwaretechnik - nahmen sich zunächst gegenseitig nicht wahr, sodaß die KI behaupten konnte, die richtige Antwort auf die Herausforderung schwieriger Programmieraufgaben zu besitzen. Heute findet eine deutliche Annäherung statt [11], wobei die KI von der Softwaretechnik die Anforderungen industrieller Softwareentwicklung erlernt. Die Berücksichtigung zeitlicher und materieller Ressourcen, die Wartungsproblematik oder Zuverlässigkeitserfordernisse spielten in der Laborumgebung der KI kaum eine Rolle. Die Expertensystemtechnik als Programmiertechnik nimmt innerhalb der Informatik keinen herausragenden Platz ein. Von Parnas wird sie gegenüber den zeitgleich erfolgten ähnlichen Entwicklungen in der Softwaretechnik sogar als die schlechtere Variante bezeichnet. [10]

Als dritte wichtige Ursache des Erfolgs der KI muß die Verfügbarkeit von Rechnern und Programmierern gesehen werden. Die Geräteentwicklung stellte kleine und billige Rechner zur Verfügung, deren Einsatz als Abteilungs- und Arbeitsplatzrechner zur Auflösung zentraler Rechenzentren- und zur Entwicklung dezentraler Arbeitsorganisationsstrukturen führte. Dies hatte neben breiterer Akzeptanz und wachsender Qualifikation bis dahin DV-Unkundiger vor allem eine direktere und flexiblere Anbindung von Arbeitsaufgaben an ihre Umsetzung in Programme zur Folge. Die KI als Labortechnik war zur Stelle und ignorierte die gewachsenen (aber letztlich erstarrten) DV-Ansätze. Diese durch die rasche Ausbreitung der PCs bedingte Entwicklung förderte nicht nur die KI, sondern die gesamte Informatik.

Die KI ist keine Schlüsseltechnologie, sondern nach wie vor eine Form der Laborforschung in der Informatik. Ihre Anfangserfolge und das große Interesse an der Expertensystemtechnik im letzten Jahrzehnt resultieren aus Versprechungen der KI, die dem Rationalisierungsdruck der Industrie entgegen kamen und bereitwillig aufgenommen und erprobt wurden. Die Softwaretechnik hielt sich mit solchen Versprechungen zurück, und versuchte »- zum Teil unter bewußter Abschottung gegenüber allzugroßen Erwartungen auf schnelle Bereitstellung von Lösungen bei Herstellerindustrie und Anwendern - in kleinen Schritten systematisch ein wissenschaftliches Gebäude um den Computer herum aufzubauen.« [2]

Die Folgen der Diskussion sind wie der Gegenstand marginal.

Die Expertensystemtechnik ist ein Schritt auf dem Weg zur Maschinisierung der Kopfarbeit, jedoch weiterhin ohne nennenswerten qualitativen und quantitativen Anteil. Der Hauptanteil dieser Entwicklung wird durch die Verbreitung von PCs sowie durch die Änderung von Arbeitsorganisationsstrukturen (Auflösung zentraler Rechenzentren zugunsten vernetzter Arbeitsplatzrechner) getragen. Expertensysteme sind in DV-Welt eine Marginalie gewesen und geblieben - und nun löst sich die Problematik auf. Das Experiment KI wurde von den Firmen als Spielwiese und Qualifizierungsstrategie genutzt und - unter den jetzt folgenden krisenhaften ökonomischen Bedingungen - beendet. KI-Projekte müssen sich rechnen wie alle anderen auch! »In erheblichem Umfang erübrigt sich damit die Technikfolgenabschätzung zur Expertensystemtechnik, denn nach dem etwas ironisch von R. Stransfeld formulierten ersten Hauptsatz der Technikfolgenabschätzung hat das, was nicht existiert, keine Folgen.« [14]

Die zu Beginn der TA-Projekte formulierte Hoffnung, in den Fortgang der Technikentwicklung gestalterisch oder verhindernd eingreifen zu können, erweist sich rückblickend als Selbstüberschätzung der Möglichkeiten der Folgenforschung. Nicht die TA hat zur Marginalisierung der Expertensystemtechnik geführt, sondern mangelnde Machbarkeit und Übertragbarkeit im industriellen Umfeld! So wurde die in allen Studien gegeißelte Leitvorstellung der Ersetzung von Fachleuten durch Expertensysteme, die frühere Automatisierungsdebatten aufgreift, inzwischen von allen Beteiligten aufgegeben. Nun wird nahezu überall die Idee arbeitsunterstützender Systeme verfolgt, nicht unbedingt aus Rücksicht auf soziale Risiken und Wertschätzung der Expertenkultur, sondern wegen in der Praxis erwiesener Unzuverlässigkeit autonomer Systeme.

Gewinner allenthalben

Trotz des weitgehenden Verschwindens der KI aus dem industriellen Fokus und der öffentlichen Debatte und der Ernüchterung der Folgenforscher hinsichtlich technischer und sozialer Risiken der KI gibt es keine eigentlichen Verlierer in diesem Prozeß. Gewonnen haben in der einen oder anderen Weise alle Beteiligten: KI- und TA-Forschung, Informatik wie die DV-Abteilungen der Firmen.

Auch wenn der industrielle Transfer der KI bis jetzt ausgeblieben ist, hat sich die KI wissenschaftspolitisch institutionalisiert: In den letzten Jahren wurden an den meisten Hochschulen Lehrstühle für KI errichtet, KI-Themen sind Bestandteil der universitären Ausbildung geworden und v.a. hat die Forschungsförderung eine Reihe von längerfristig finanzierten Forschungsinstituten hinterlassen.

Die Informatik hat sich einer Technikbewertung ihrer eigenen Themen erfolgreich entzogen, indem die kritische Diskussion auf ein Randgebiet, die KI, konzentriert wurde. Eine Übertragung berechtigter KI-Kritik auf die Informatik insgesamt ist kaum gelungen. Denn auch wenn ein Großteil der Kerninformatiker nach wie vor der ?unsoliden KI? kritisch gegenübersteht und die Übertragbarkeit von Ergebnissen der KI-Bewertung bestreitet, scheinen doch viele der vorgebrachten Kritikpunkte sehr wohl den Kernbereich der Programmierung und Modellierung in der Informatik zu treffen.

Die Industrie mußte zwar gewisse Verluste durch fehlgeschlagene Projekte und Investition in die falschen Geräte hinnehmen - kein ungewöhnliches Phänomen im DV-Umfeld. Letztlich könnte sich aber die durch die KI-Projekte zwangsläufig erfolgte Qualifizierung der Mitarbeiter als gewinnbringende Investition auswirken.

Die TA bleibt nach wie vor das Stiefkind der Forschungsförderung. Finanzielle Einbußen sind wohl eher der öffentlichen Finanznot und der politischen Schwerpunktsetzung als den stattgefundenen Projekten geschuldet. Als potentieller Gewinn der TA-Diskurse soll nicht zuletzt ein Lernprozeß über den tatsächlichen Verlauf der Informatisierung erwähnt werden.

Literatur

  1. Boehm, B.W.: A Spiral Model of Software Development and Enhancement. IEEE Computer May 1988, 61-72 (1988)
  2. Brauer, W.: KI auf dem Weg in die Normalität. KI 7(3), 85-91 (1993)
  3. Budde, R., K. Kautz, K. Kuhlenkamp & H. Züllighoven: Prototyping - An approach to evolutionary system development. Berlin et al.: Springer 1992
  4. Byte: AI: Metamorphosis or Death? Editorial zum State of the Art Report. Byte Januar 91, 236 (1991)
  5. Coy, W.: Projekte zur Technikfolgenabschätzung und Technikbewertung. KI 4(4), 39-40 (1990)
  6. Cremers, A.B., R. Haberbeck, J. Seetzen & I. Wachsmuth: Künstliche Intelligenz - Leitvorstellungen und Verantwortbarkeit. VDI Report 17. 1992
  7. Dahl, O.J., E.W. Dijkstra & C.A.R. Hoare: Structured Programming. London - New York: Academic Press 1972
  8. Malsch, T., R. Bachmann u.a.: Expertensysteme in der Abseitsfalle? Fallstudien aus der industriellen Praxis. Berlin: edition sigma 1993
  9. Nake, F.: Gegenstand der Informatik ist die Maschinisierung von Kopfarbeit. Positionspapier zur 1. Konferenz Theorie der Informatik, Bederkesa (1989)
  10. Parnas, D.L.: On ?Artificial Intelligence - Myths, Legends and Facts?, in G. Ritter (Hrsg.): Information Processing '89. Amsterdam: North Holland 1989
  11. Partridge, D. (Hrsg.): Artificial Intelligence and Software Engineering. Norwood: Ablex Publ. Corp. 1991
  12. Rader, M.: Die Enttäuschung über den Berg, der bei genauem Hinsehen als Maulwurfshügel zu erkennen war - Der Deutsche Bundestag und die Expertensysteme. InfoTech (4/92)(1992)
  13. Rammert, W.: »Expertensysteme« im Urteil der Experten: Eine neue Wissenstechnologie im Prozeß der Technikfolgenabschätzung, in Technik und Gesellschaft. Jahrbuch 6. Frankfurt/M.: Campus 1992
  14. Seetzen, J.: Technikfolgenabschätzung der Künstlichen Intelligenz, in: Folgen und Perspektiven der Wissensverarbeitung (St. Augustin, 15.-16. Februar 1993) 1993
  15. Selfridge, O.G.: The Gardens of Learning - Keynote address at the AAAI 92. AI Magazine 14(2), 36-48 (1993)