|
Computher-Ethik - oder die Berufsethik von Informatikern
Wenn man von Computer-Ethik (oder der fehlenden) spricht, so assoziiert jeder Zuhoerer voellig unterschiedliche Bereiche mit dem Begriff: Daten-Klau und Rechenzeit-Klau, Software-Klau und Kopierschutz-Knacken, Hacken in Netzen, Viren, Wuermer, trojanische Pferde und anderes Getier, Computersabotage, Ab"hoeren" von Leitungen und Terminals, Verletzung des Datenschutzes usw. Das sind alles Erscheinungen, bei denen geschriebene oder (noch) ungeschriebene Gesetze verletzt werden. Es wird wirtschaftlicher Schaden angerichtet, es wird das "informationelle Selbstbestimmungsrecht" von Menschen verletzt. Aber trotzdem will ich jetzt nicht darueber schreiben, denn unsere Gesellschaft hat laengst Mechanismen und Sanktionen entwickelt, um den Schaden einzudaemmen. Ich will auch nichts ueber die Sinnhaftigkeit mancher Regelungen und ihre Wirksamkeit sagen. Vielmehr will ich von der sehr ernst gefuehrten Diskussion ueber die Berufsethik von Informatikern berichten. Arbeitsorganisation ------------------- Computersysteme werden prinzipiell entwickelt und gebaut, um menschliche Arbeit zu ersetzen (oder Arbeit zu leisten, fuer die Menschen viel zu lange brauchen wuerden, nicht praezise und zuverlaessig genug sind, oder die zu gefaehrlich ist). Die Association for Computing Machinery definiert die grundlegende Frage der Informatik ("Computing") kurz und buendig mit "Was kann (effizient) automatisiert werden?" Genauer betrachtet, setzt man Computer ein, um menschliche Arbeit von Automaten ausfuehren zu lassen, um menschliche Arbeit zu organisieren (Arbeitsplanung, Arbeitskontrolle) und um menschliche Arbeit und ihre Kosten von einer Instanz auf eine andere zu verlagern (z.B. Bankauftraege ueber Kreditkartenterminals oder BTX statt ueber das Bankpersonal). Anders ausgedrueckt soll der Computer vor allem die Arbeitsorganisation veraendern - vom speilerischen und kuenstlerischen Anwendungen einmal abgesehen. Die gegenwaertige DV-Ausbildung und das Informatikstudium vernachlaessigen aber den arbeitsorganisatorischen Teil, so dass sowohl Maschinen als auch Programme entstehen, die katastrophale Auswirkungen auf die Beschaeftigten und fuer die Organisation haben. (Die Frage der Verantwortung fuer die Wegrationalisierung von Arbeitsplaetzen gehoert natuerlich auch in diesen Zusammenhang und laeuft - rein oekonomisch betrachtet - auf die Abwaegung hinaus, ob die gesamtwirtschaftlichen Kosten einer Rationalisierung (also auch mit den sozialen Folgekosten) nicht hoeher sind als die betriebswirtschaftlichen Vorteile eines einzelnen Betriebs.) Immerhin gibt es jetzt aber kraeftig wachsende Bestrebungen, das Informatikstudium in diese Richtung zu erweitern: die Wirtschaftsinformatiker haben ein natuerliches Interesse daran, dass die oekonomischen Wirkungen der Umorganisation von Arbeit durch die Automatisierung vollstaendig planbar gemacht werden koennen, und eine Fachgruppe in der Gesellschaft fuer Informatik entwirft ein Curriculum fuer das Gebiet Software-Ergonomie, also der Wissenschaft von der menschengerechten Gestaltung von Software, so dass bei der Erfuellung der Arbeitsaufgabe nervliche und intelektuelle Belastungen so gering wie moeglich gehalten und gesundheitliche Schaeden vermieden werden. Darueberhinaus soll ein gut gestaltetes Programm zur Weiterentwicklung der Persoenlichkeit beitragen und soziale Beziehungen zumindest nicht behindern. Anwendungsrisiken ----------------- Ein drittes grosses Diskussionsfeld ist sehr aktuell: die Frage nach der Verantwortung fuer den Einsatz von Systemen. Gemeint ist nicht nur die juristische Haftung, sondern auch die moralische und politsche Verantwortung. In Bremen wird dazu eine Tagung im Oktober zum Thema "Riskante Systeme" laufen. SDI und das Versagen grosser technischer Systeme (z.B. Tschernobyl) kennzeichnen die zwei Hauptthemen der Diskussion: Planung, Entwurf und Einsatz erstens von Waffensystemen, also Systemen, die per se zerstoeren sollen - auch wenn sie politisch durch Abschreckung die Zerstoerung verhindern sollen - und zweitens von Systemen, bei denen katastrophale Wirkungen durch Fehlkonstruktion, -programmierung oder durch Fehlbedienung auftreten koennen. Juristisch gesprochen laeuft das auf die Frage hinaus, ob es so etwas wie Produkt- und Produzentenhaftung fuer Computer und Software geben kann (Der Hersteller haftet auch fuer indirekte Folgeschaeden: kleines Loch im Pflaster, Fuss gebrochen, Termin verpasst, grosser Auftrag geplatzt, den Millionenschaden zahlt die Stadt...) Die Technologiefolgen-Kommission des Bundestages hat das Thema untersucht und in Hamburg hat im Juli die Tagung "Opportunities and Riscs of Artificial Intelligence Systems" - ORAIS '89 stattgefunden, bei der die beiden Auspekte ausfuehrlich duskutiert wurden. In einer Arbeitsgruppe entstand die Empfehlung, wissensbasierte Systeme fuer Einsatz- bereiche zu verbeiten, in denen lebens- oder gesundheitsbedrohende Wirkungen durch Fehler eintreten koennen. Es soll also nicht erlaubt sein, ein medizinisches Expertensystem dem Pflegepersonal in die Hand zu geben, um es - ohne Beisein von aerzten - bei der Apparatesteuerung in der Intensivstation zu beraten. Noch weniger soll es zulaessig sein, ein "imbedded system" zu verwenden, also ein Expertensystem, bei dem das "eingebettete" Expertenwissen automatisch - ohne menschlichen Eingriff - irgendwelche technischen Funktionen ausloest. Dass selbst ohne diese Automatik schwerwiegende Fehlentscheidungen aufgrund von, wohl gemerkt, korrekt laufenden Programmen zustande kommen koennen, zeigt der Abschuss des iranischen Airbus mit einigen hundert Passagieren vor einem Jahr. Damals hat das Expertensystem-aehnliche Radarauswertungsprogamm dem Kapitaen der amerikanischen Fregatte den Eindruck suggeriert, es handele sich um ein angreifendes Flugzeug und er hat daraufhin - unter Zeitdruck und aus fehlender Kenntnis ueber die Grenzen des Expertenwissens - auf den Roten Knopf gedrueckt! Der Kapitaen traegt zwar die direkte Verantwortung, aber diejenigen, die ihm dieses Expertensystem vorgesetzt haben, tragen nach meiner Meinung die groessere Schuld. Konsequenzen fuer den Informatiker ---------------------------------- Die Forderung an die Berufsethik jeden Informatikers muss natuerlich sein: wenn von Dir der Entwurf, der Bau oder der Einsatz von risikotraechtigen Systemen verlangt wird, verweigere Dich! Wenn es dann nicht gelingt, den Auftraggeber umzustimmen, verlangen die zu erwartenden Sanktionen viel Staerke und manches Opfer, und sie treffen auch die Familienangehoerigen. Erst wenn viele Informatiker etwa dem Beipiel der nicht wenigen SDI- Verweigerer in den USA folgen, wird der Druck auf den Einzelnen ertraeglicher werden. Was insgesamt fehlt, ist eine Art Hippokratischer Eid fuer Informatiker. Ansaetze dazu gibt es in England und in den USA. Auch bei uns wird in der GI (Gesellschaft fuer Informatik) im FIFF (Forum Informatiker fuer Frieden und gesellschaftliche Verantwortung) darueber diskutiert. Prof. P. Gorny (Angewandte Informatik,Uni Oldenburg) ----------------------------------------------------------------------------- |
[Contrib]
[Chalisti]
[01]
Computher-Ethik - oder die Berufsethik von Informatikern