Computer-Ethik -
oder die Berufsethik von Informatikern
Wenn man von Computer-Ethik (oder der fehlenden) spricht, so assoziiert jeder Zuhörer völlig unterschiedliche Bereiche mit dem Begriff: Daten-Klau und Rechenzeit-Klau, Software-Klau und Kopierschutzknacken, Hacken in Netzen, Viren, Würmer, trojanische Pferde und anderes Getier, Computersabotage, Ab"hören" von Leitungen und Terminals, Verletzung des Datenschutzes usw. Das sind alles Erscheinungen, bei denen geschriebene oder (noch) ungeschriebene Gesetze verletzt werden. Es wird wirtschaftlicher Schaden angerichtet, es wird das "informationelle Selbstbestimmungsrecht" von Menschen verletzt. Aber trotzdem will ich jetzt nicht darüber schreiben, denn unsere Gesellschaft hat längst Mechanismen und Sanktionen entwickelt, um den Schaden einzudämmen. Ich will auch nichts über die Sinnhaftigkeit mancher Regelungen und ihre Wirksamkeit sagen. Vielmehr will ich von der sehr ernst geführten Diskussion über die Berutsethik von Informatikern berichten.
Arbeitsorganisation
Computersysteme werden prinzipiell entwickelt und gebaut, um menschliche Arbeit zu ersetzen (oder Arbeit zu leisten, für die Menschen viel zu lange brauchen würden, nicht präzise und zuverlässig genug sind, oder die zu gefährlich ist). Die "Asociation for Computing Machinery", definiert die grundlegende Frage der Informatik ("Computing") kurz und bündig mit "Was kann effizient automatisiert werden?". Genauer betrachtet, setzt man Computer ein, um menschliche Arbeit von Automaten ausführen zu lassen, um menschliche Arbeit zu organisieren (Arbeitsplanung, Arbeitskontrolle) und um menschliche Arbeit und ihre Kosten von einer Instanz auf eine andere zu verlagern (z.B. Bankaufträge über Kreditkartenterminals oder BTX statt über das Bankpersonal). Anders ausgedrückt soll der Computer vor allem die Arbeitsorganisation verändern - vom spielerischen und künstlerischen Anwendungen einmal abgesehen. Die gegenwärtige DV-Ausbildung und das Informatikstudium vernachlässigen aber den arbeitsorganisatorischen Teil, so daß sowohl Maschinen als auch Programme entstehen, die katastrophale Auswirkungen auf die Beschäftigten und für die Organisation haben. (Die Frage der Verantwortung für die Wegrationalisierung von Arbeitsplätzen gehört natürlich auch in diesen Zusammenhang und läuft - rein ökonomisch betrachtet - auf die Abwägung hinaus, ob die gesamtwirtschaftlichen Kosten einer Rationalisierung (also auch mit den sozialen Folgekosten) nicht höher sind als die betriebswirtschaftlichen Vorteile eines einzelnen Betrieb."). Immerhin gibt es jetzt aber kräftig wachsende Bestrebungen, das Informatikstudium in diese Richtung zu erweitern: die Wirtschaftsinformatiker haben ein natürliches Interesse daran, daß die ökonomischen Wirkungen der Umorganisation von Arbeit durch die Automatisierung vollständig planbar gemacht werden können, und eine Fachgruppe in der Gesellschaft für Informatik entwirft ein Curriculum für das Gebiet Softwareergonomie, also der Wissenschaft von der menschengerechten Gestaltung von Software, so daß bei der Erstellung der Arbeitsaufgabe nervliche und intelektuelle Belastungen so gering wie möglich gehalten und gesundheitliche Schäden vermieden werden.
Darüberhinaus soll ein gut gestaltetes Programm zur Weiterentwicklung der Persönlichkeit beitragen und soziale Beziehungen zumindest nicht behindern.
Anwendungsrisiken
Ein drittes großes Diskussionsfeld ist sehr aktuell: die Frage nach der Verantwortung für den Einsatz von Systemen. Gemeint ist nicht nur die juristische Haftung, sondern auch die moralische und politsche Verantwortung. In Bremen wird dazu eine Tagung im Oktober zum Thema "Riskante Systeme" laufen. SIA und das Versagen großer technischer Systeme (z.B. Tschernobyl) kennzeichnen die zwei Hauptthemen der Diskussion: Planung, Entwurf und Einsatz von:
1) Waffensystemen, also Systemen, die per se zerstören sollen - auch wenn sie politisch durch Abschreckung die Zerstörung verhindern sollen -
2) Systemen, bei denen katastrophale Wirkungen durch Fehlkonstruktion, -programmierung oder durch Fehlbedienung auftreten können. Juristisch gesprochen läuft das auf die Frage hinaus, ob es so etwas wie Produkt- und Produzentenhaftung für Computer und Software geben kann (Der Hersteller haftet auch für indirekte Folgeschäden: kleines Loch im Pflaster, Fuß gebrochen, Termin verpaßt, großer Auftrag geplatzt, den Millionenschaden zahlt die Stadt.... )
Die Technologiefolgen-Kommission des Bundestages hat das Thema untersucht und in Hamburg hat im Juli die Tagung "Opportunities and Riscs of Artificial Intelligence Systems" - ORAIS '89 stattgefunden, bei der die beiden Auspekte ausführlich diskutiert wurden. In einer Arbeitsgruppe entstand die Empfehlung, wissensbasierte Systeme für Einsatzbereiche zu vermeiden, in denen lebens- oder gesundheitsbedrohende Wirkungen durch Fehler eintreten können. Es soll also nicht erlaubt sein, ein medizinisches Expertensystem dem Pflegepersonal in die Hand zu geben, um es - ohne Beisein von Ärzten - bei der Apparatesteuerung in der Intensivstation zu beraten. Noch weniger soll es zulässig sein, ein "imbedded System" zu verwenden, also ein Expertensystem, bei dem das "eingebettete" Expertenwissen automatisch - ohne menschlichen Eingriff - irgendwelche technischen Funktionen auslöst. Daß selbst ohne diese Automatik schwerwiegende Fehlentscheidungen aufgrund von (wohl gemerkt: korrekt laufenden) Programmen zustande kommen können, zeigt der Abschuß des iranischen Airbus rnit einigen hundert Passagieren vor einem Jahr. Damals hat das Expertensystem-ähnliche Radarauswertungsprogramm dem Kapitän der amerikanischen Fregatte den Eindruck suggeriert, es handele sich um ein angreifendes Flugzeug und er hat daraufhin - unter Zeitdruck und aus fehlender Kenntnis über die Grenzen des Expertenwissens - auf den roten Knopf gedrückt! Der Kapitän trägt zwar die direkte Verantwortung, aber diejenigen, die ihm dieses Expertensystem vorgesetzt haben, tragen nach meiner Meinung die größere Schuld.
(Einschub der Redaktion: Das System urteilte nach gewissen Randbedingungen:
1) Ein nicht zu identifizierendes Flugzeug ist feindlich.
2) Bei nicht feststellbarer Richtung ist es im Sinkflug.
3) Bei nicht feststellbarer Geschwindigkeit hat es Überschallgeschwindigkeit.
Wenn alle drei Punkte zusammenkommen, wird mit einer Wahrscheinlichkeit von
12.5% ein angreifendes Flugzeug festgestellt. Dieser Wert ist aber nicht bekannt.) Konsequenzen für den Informatiker
Die Forderung an die Berufsethik jeden Informatikers muß natürlich sein: wenn von Dir der Entwurf, der Bau oder der Einsatz von risikoträchtigen Systemen verlangt wird, verweigere Dich! Wenn es dann nicht gelingt, den Auftraggeber umzustimmen, verlangen die zu erwartenden Sanktionen viel Stärke und manches Opfer, und sie treffen auch die Familienangehörigen. Erst wenn viele Informatiker etwa dem Beispiel der nicht wenigen SDI-Verweigerer in den USA folgen, wird der Druck auf den einzelnen erträglicher werden.
Was insgesamt fehlt, ist eine Art hippokratischer Eid für Informatiker. Ansätze dazu gibt es in England und in den USA. Auch bei uns wird in der GI (Gesellschaft für Informatik) im FIFF (Forum Informatiker für Frieden und gesellschaftliche Verantwortung) darüber diskutiert.
Prof. P.Gorny
Angewandte Informatik, Uni Oldenburg
|