Moral, Ethik und Organisationen
Es gab offenbar Zeiten, in denen sich das „Moralische von selbst verstand“
1. Nicht in dem Sinne, dass es keiner Regeln oder Normen bedurft hätte, um das menschliche Leben anzuleiten. Aber selbstverständlich in dem Sinne, dass eine weitgehende Einigkeit darin bestand, dass solche Regeln und Normen gültig und tauglich für das Zusammenleben der Menschen seien, über die rechtliche Regulierung hinaus reichten und sich aus dem „sittlichen Bewusstsein“ des moralischen Subjekts speisten.
Es ist schwer, den
terminus a quo genau auszumachen, ab dem diese Selbstverständlichkeit so nicht mehr gegeben war. Hegels Rechtsphilosophie mag hier einen starken Anstoß gegeben haben (vgl. Ilting
1983) und sicher auch Nietzsches Werk, in dem eine „Umwertung aller Werte“ ein durchgängiges Motiv ist. „‚Moral‘ selbst hörte schließlich auf, als Inbegriff unbedingt verbindlicher Normen anerkannt zu sein; zu gesellschaftlich oder kulturell bedingten Weltanschauung relativiert, galt sie fortan, zumeist mit kennzeichnenden Attributen wie ‚christlich‘ oder ‚bürgerlich‘ versehen, nur noch als die Moral einer bestimmten Gruppe“ (Ilting
1984, S. 898). Trifft diese Analyse zu, so könnte man sich immer noch damit beruhigen, dass ja in Bezug auf eine gewisse Gruppe so etwas wie gemeinsame Orientierung durch moralischen Konsens zu erreichen wäre. Aber in offenen Gesellschaften, die miteinander in Austausch stehen und nur noch so die Bearbeitung vieler Probleme leisten können, vermag diese Geste der Selbstberuhigung angesichts steigender Komplexität und Differenz nicht mehr zu verfangen.
Es muss hier ein weiterer Aspekt genannt werden, der den Orientierungsverlust in moralischen Fragen massiv verschärft hat. Es ist die Erfahrung des Faschismus, die Hannah Arendt folgendermaßen notierte: „Wir – zumindest die Älteren unter uns – haben in den 1930er und 1940er-Jahren den totalen Zusammenbruch aller geltenden moralischen Normen im öffentlichen und privaten Leben miterlebt“ (Arendt
2016, S. 14). „Die Moral zerbrach und wurde zum bloßen Kanon von ‚mores‘ – von Manieren, Sitten, Konventionen, die man beliebig ändern kann – nicht bei den Kriminellen, sondern bei den gewöhnlichen Leuten, die sich, solange moralische Normen gesellschaftlich anerkannt waren, niemals hatten träumen lassen, daß sie an dem, was sie zu glauben gelehrt worden waren, hätten zweifeln können“ (Arendt
2016, S. 16 f.).
Macht man sich klar, dass der moralische Bruch in der Zeit des Nationalsozialismus in besonderer Weise im Medizinischen sichtbar wurde und seine „Aufarbeitung“ zu einer neuen ethischen Reflexion und zu neuen ethischen Selbstbindungen der Professionellen im Gesundheitswesen geführt hat (exemplarisch seien hier genannt der Nürnberger Kodex, 1947; das Genfer Gelöbnis, 1948; vgl. Wunder
2001), so mag das als eine Form der Wiedergewinnung moralischer Orientierung verstanden werden – dies aber vor allem auf der Ebene der Professionellen (ärztliches, pflegerisches und anderes therapeutisches Personal) und einem individuellen Berufsethos. Hier fügt die These von Stephen E. Toulmin eine weitere Facette hinzu, wonach es in der Folgezeit gerade die Medizin gewesen sei, welche der Ethik „das Leben gerettet hat“ (Toulmin
1982). Er weist darauf hin, dass es die Aufmerksamkeit war für konkrete Fälle, konkrete Situationen, für die Obligationen, die Personen als Individuen oder professionelle Rollenträger darin erfahren, und für die Beziehungen zu den in der Situation Involvierten, die der Ethik ein neues Betätigungsfeld und gesellschaftliche Relevanz gesichert haben – im Wesentlichen das, was dann „angewandte Ethik“ im Kontrast zur „allgemeinen Ethik“ genannt wurde (vgl. Pieper und Thurnherr
1998; Stoecker et al.
2011). Aber diese angewandte Ethik ist wesentlich eine Individual- und keine Organisationsethik.
Aus einer soziologisch systemtheoretischen Perspektive stellt sich die Situation einige Jahrzehnte später noch einmal anders dar: Moral als „Gesamtheit der faktisch praktizierten Bedingungen wechselseitiger Achtung oder Missachtung“ (Luhmann
2008, S. 107) erweise sich als völlig dysfunktional in einer modernen und ausdifferenzierten Gesellschaft, deren Teilsphären sich nach spezifischen binären Codes organisierten. Die moralische Unterscheidung von gut und böse stehe dazu quer und sei kontraproduktiv. Entsprechend sei es die „vordringlichste Aufgabe der Ethik“, „vor der Moral zu warnen“ und so die Funktionalität der Systeme (wieder) sicher zu stellen (Luhmann
1990, S. 41). Man muss dieser Position nicht uneingeschränkt zustimmen, sollte aber doch zur Kenntnis nehmen, dass systemtheoretische Überlegungen Luhmann’scher Provenienz eine starke Aufnahme in der Organisationstheorie (exempl. Tuckermann
2013; Jäger und Coffin
2011; Baecker
1999,
2003) und ebenso in Teilen der Organisationsethik fanden, die sich an diesem Punkt als Weiterentwicklung individualethischer Ansätze verstand. Diese konnten erkennbar das Verbundhandeln vieler Personen im Kontext von Organisationen bzw. die Einbettung der einzelnen Organisationen in einen größeren institutionellen Kontext für die Entscheidungen in den Organisationen nicht mehr angemessen konzeptualisieren (vgl. Bonazzi
2008, bes. Teil III; Krobath und Heller
2010; Baecker
2003).
Dieser Position steht nun – wieder einige Jahrzehnte später – das Verdikt eines anderen Soziologen entgegen, wonach der Ethikdiskurs die Moral gefährde und letztlich nur der Effizienzsteigerung der Organisation diene. Von Moral wäre entsprechend nur noch „trotzig“ und im Widerspruch zu sprechen gegen eine Ethik, die „zu degenerieren [drohe] zu einem betriebswirtschaftlichen Element, das zur Optimierung von Führungsstilen und Produktionsabläufen beitragen will und soll“. „Die Rationalisierung von Entscheidungsvorgängen in Organisationen macht entsprechend die Nutzung von Ethik/Moral zunehmend überflüssig. Organisationsethik wird – so muss man befürchten – über kurz oder lang zu einem Oxymoron, zu einem Widerspruch in sich – zu ‚schwarzer Milch‘ (Celan)“ (Gronemeyer
2010, S. 75 f.).
Diese kurze, keinesfalls systematische und vollständige Genealogie soll drei Dinge verdeutlichen, die für das hier zu behandelnde Thema wesentlich sind. Erstens verändern sich Moral und mit ihr die Ethik (als Reflexion der Moral) beständig. Ihre Weiterentwicklung ist jedoch nicht einfach als „Fortschritt“ zu verstehen, sondern als erforderliche Veränderung ihrer methodischen Arbeitsweisen wie ihrer inhaltlichen Schwerpunktsetzungen angesichts der technischen, ökonomischen und anderen Wandlungen in der Gesellschaft. In diesem Sinne lassen sich Konzepte der Organisationsethik oder -entwicklung als Antwortversuche auf solche Herausforderungen – wie die Digitalisierung – verstehen (vgl. Grossmann
2010). Zweitens ist die Integrationskraft der Moral in differenzierten und pluralen Gesellschaften nicht mehr stark genug, um über alle Teilsysteme hinweg einheitlich Orientierung zu gewährleisten. Auch wenn ihre Bedeutung von Einzelnen oder Organisationen – zum Beispiel in Ethik-Kodizes oder Leitbildern – immer wieder beschworen wird, erscheint ihre normative Kraft bestenfalls als eine neben anderen (wie Recht, Technik, Ökonomie) zu sein. Drittens bedarf das Verbundhandeln in Organisationen einer anderen ethischen Konzeptualisierung als ein individualethisches Handeln und Entscheiden, kann aber auf die Person als moralisches Subjekt und als ganzer Mensch nicht einfach verzichten (vgl. Tugendhat
1993, bes. Kap. 6; Streck
2006). Diese „Reintegration“ des moralischen Subjektes in die Organisation steht vor zwei Herausforderungen. Die eine besteht darin, dass eine leistungsfähige Organisationsethik systemtheoretischer Provenienz mit dem moralischen Subjekt in zweierlei Hinsicht wenig anfangen kann: a) gilt die Moral, wie angedeutet, als dysfunktionaler Faktor, der möglichst eingehegt werden soll; b) geht es, systemtheoretisch gesprochen, nicht um Subjekte und ihre Intention oder Motivation, sondern um Systeme und ihre Kommunikation. Diesen Herausforderungen sucht man z. B. durch eine Governanceethik zu begegnen, die darauf insistiert, dass auf die moralische Selbstbindung der Mitglieder einer Organisation nicht verzichtet werden kann (Wieland
2001).
Die zweite Herausforderung, der hier fokussierter nachgegangen werden soll, kommt von außen in der Form von technischen Systemen, die im Zuge der Digitalisierung im Gesundheitswesen an immer mehr Stellen auf moralisch relevante Entscheidungsprozeduren einwirken bzw. solche Entscheidungen auch selbst generieren, womit sich a) die Frage nach dem moralischen Gehalt solcher Entscheidungen stellt und b) die nach dem Status der technischen Systeme hinsichtlich ihrer rechtlichen, sozialen und moralischen Anerkennung.
Organisationen und ihre Entscheidungen im digitalen Wandel
Organisationen sind Nachfolger der früheren Korporationen, Zünfte und Gilden, „ihre Besonderheit liegt u. a. darin, dass sie sich auf bestimmte, sehr beschränkte Zwecke konzentrieren dürfen, dass man ihnen rein instrumentell ausgerichtete Strukturen zugesteht und dass sie eine eigene Kategorie von Personen bilden (‚juristische Personen‘). Diese Merkmale tragen n. a. dazu bei, Organisationen Handlungen und Handlungsfolgen zurechnen zu können“ (Jäger und Coffin
2011, S. 11). Organisationen produzieren und reproduzieren sich durch Entscheidungen (vgl. Luhmann
2000, S. 9). Sie unterscheiden und wägen ab, welche Seite der Unterscheidung man aus welchen Gründen vorzieht. Es kann nicht nicht entschieden werden – denn auch das stellt sich letztlich als eine Entscheidung dar. „Worauf es letztlich anzukommen scheint, um eine Entscheidung als Entscheidung ausweisen zu können, das ist die Übernahme des Risikos, angesichts aller möglichen Arten von Ungewissheit, Komplexität und Widersprüchlichkeit an einem bestimmten Punkt eine Gewissheit, einen Ausgangspunkt, eine Bestimmtheit zu produzieren“ (Baecker
1999, S. 146). Analytisch wird hierbei der
Entscheidungstheorie zugeschlagen, was aus Sicht einer einzelnen Person relevant für deren Entscheidung ist, wohingegen die
Spieltheorie die Interaktion mehrerer Akteure bei einer Entscheidung beschreibt; die
Sozialwahltheorie oder
Theorie kollektiver Entscheidungen schließlich beschreibt das Zusammenwirken mehrerer Akteure in Gruppen oder Organisationen (vgl. Hild
2010; Schmidt
2002).
Entscheidungen in und durch Organisationen werden im Zuge der Digitalisierung und Vernetzung durch zwei weitere Faktoren herausgefordert: Digitalisierung meint, 1) dass alle diskreten Schritte in einem Arbeitsprozess mittels einer binären Codierung der Daten und Programmbefehle beschrieben und exekutiert werden können; im Englischen: digitization. Digitalisierung bedeutet 2), dass digitale Prozesse und Endgeräte immer stärker verbreitet und eingesetzt werden; im Englischen: digitalization (Brennen und Kreiss
2014). Digitalisierung im zweiten Sinne basiert auf der technischen Prämisse im ersten Sinne und auf einer erkenntnistheoretischen Prämisse, dass mehr digitale Daten mehr Erkenntnis bringen und so eine bessere Grundlage für das Verständnis und die Steuerung individueller, organisationaler sowie gesellschaftlicher Prozesse bestünde. Es werden aktuell die vielen digitalen Endgeräte miteinander in einem weltweiten Netz verknüpft, so dass die Menge der Daten und ihre Verknüpfung zu neuen Wissensbeständen, Heuristiken, Praktiken oder auch Entscheidungsgrundlagen führt. Nun entstehen Künstliche Intelligenzen (verkörpert oder auch nicht), die zu Entscheidungen in Organisationen einen so wesentlichen Beitrag leisten, dass hier rechtzeitig geklärt werden sollte, wie dieser Beitrag zu verstehen ist und ob und in welchem Maß wir Menschen diese Entitäten als „Aktanden“, „Agenten“, „Kooperationspartner“, „soziale Interaktionspartner“ oder gar als „moralische Akteure sui generis“ betrachten wollen. Das gilt umso mehr, als der Beitrag des moralischen Subjekts „Mensch“ organisationsethisch nicht unumstritten ist und nun durch einen weiteren „Entscheider“ Maschine noch prekärer werden könnte.
Entscheidungen als Zielpunkt ethischer Bemühungen im Gesundheitswesen
Betrachtet man das Gesundheitswesen als System, in dem viele Organisationen in Wechselwirkung stehen und entscheiden – und zwar vordergründig entlang der Unterscheidung von krank und gesund. Schaut man genauer hin, so sind die Orientierungen jedoch vielfältiger: Neben dem Wohl des Patienten, sind es auch die Ertragslage des Krankenhauses bzw. seiner jeweiligen Organisationseinheit oder die rechtlichen Vorgaben der Sozialgesetzbücher. Weiterhin spielen Reputationserwägungen, rechtliche Risikoabsicherungen, Erfordernisse der Forschung und Ausbildung eine Rolle bei den Entscheidungen. Auch der Statuswechsel der lange der Medizin nur zugeordneten Pflege (vgl. Sander und Dangendorf
2017; Pundt
2006) verändert das Gefüge der professionellen Organisation Krankenhaus (Klatetzki
2012). Vor allem aber bedeutet die „vertikale Integration“, also „die Koordination von Einrichtungen mit unterschiedlichen, einander ergänzenden Angeboten“ (Iseringhausen und Staender
2012, S. 195) eine enorme Steigerung der Komplexität entlang der Versorgungspfade. Dies gilt auch, weil Patientinnen und Patienten zunehmend von Chronifizierung, Multimorbidität, Frailty gekennzeichnet sind und so eine Neuorientierung in der Krankenversorgung erfordern. Diese ist schon längst aus der intimen Sphäre einer Arzt-Patient-Dyade ausgezogen und liegt bei aller reklamierten individualethischen „Letztverantwortung“ des ärztlichen Personals in einem äußerst heterogenen Feld von Interessen, Ansprüchen, Erwartungen an sehr verschiedene Rollen und Funktionen in den Organisationen des Gesundheitswesens.
Die Organisation von Ethik in Organisationen des Gesundheitswesens ist – auch im analogen Modus – ein anspruchsvolles Geschäft, das in den letzten Jahrzehnten intensiv betrieben und durchaus Früchte getragen hat (vgl. exemplarisch Baumann-Hölzle und Arn
2009; Krobath und Heller
2010; Schuchter et al.
2020). Die Digitalisierung im Gesundheitswesen (vgl. Meißner und Kunze
2021; Kubek et al.
2020; Heinemann und Matusiewicz
2020; Elmer und Matusiewicz
2019; Matusiewicz et al.
2017) steigert diese Herausforderungen noch einmal. Mit der Digitalisierung verändern sich nicht nur die Kommunikations- und Handlungsformen – so legen digitale Daten andere Formen der Diagnostik und der Kommunikation nahe. Expert*innen können von räumlich entfernten Orten mit ihrem Wissen und ihrer Fertigkeit (Telemedizin und -nursing) hinzugezogen werden. Es verändern sich auch die Wahrnehmungsweisen, insbesondere durch den Beitrag der AR- und VR-Technologie (vgl. Herder et al.
2018; Niederlag et al.
2012). Ein weiterer wichtiger Effekt der Digitalisierung ist die „sektorale Entgrenzung“ (vgl. Manzeschke und Brink
2020a, bes. S. 1108 f.) im Gesundheitswesen. Das bedeutet, dass Daten, die zur Patientenversorgung wichtig sind, vermehrt (und sehr viel einfacher!) zwischen den beteiligten Einrichtungen ausgetauscht werden können. Eine solche sektorenübergreifende Versorgung wird man aus fachlichen, ökonomischen und auch moralischen Gründen begrüßen. Dieser Schritt bedeutet aber auch, dass die Organisationen (und mit ihnen die darin organisierten Menschen) in einem weiteren Kreis von Beteiligten werden kommunizieren und Entscheidungen miteinander abstimmen müssen. Organisationales Handeln ist in einem räumlich erweiterten Handlungsfeld zu bedenken und basiert vermehrt auf digital aufbereiteten Daten, die nicht nur von Gesundheitseinrichtungen generiert werden, sondern auch aus anderen lebensweltlichen Zusammenhängen (u. a. Selftracking; vgl. Selke
2014) stammen und von unterschiedlicher Qualität sind (vgl. Dössel
2020; Manzeschke
2020). Die digitalen Daten werden zu einem wesentlichen Interpretations- und Interventionspunkt der Prävention, Diagnostik und Therapie.
Für das Gesundheitswesen ist aufgrund der hier existenziellen Dimension Gesundheit in besonderer Weise zu bedenken, dass organisationale Entscheidungen in zwei Richtungen unterschieden werden können. Sie können mit
Gefahren verbunden sein, die als von außen kommende, nicht beeinflussbare Ereignisse auf die von den Entscheidungen betroffenen Personen und Situationen einwirken. Sie können aber auch
Risiken beinhalten, die von den Entscheidern kalkuliert werden können. „Die Entscheider gehen Risiken ein, und jene, die von diesen Entscheidungen betroffen sind, sind gleichzeitig einer Gefahr ausgesetzt, da diese auf die Entscheidungen – nachdem sie getroffen wurden – der Entscheider keinen Einfluss haben. Also: Wohl dem, der entscheiden kann!“ (Jäger und Coffin
2011, S. 57). Entscheidungen sollen der Absorption von Ungewissheit dienen (vgl. Baecker
1999, S. 15 f.), aber sie sind auch mit Verantwortung verbunden (vgl. Luhmann
2000, S. 146). Was, wenn die die Entscheidung herbeiführenden und treffenden Akteure zunehmend maschinelle Elemente enthalten, die sehr wohl Risiken produzieren, welche für Menschen Gefahren bedeuten können? Was wenn Menschen für diese Entscheidungen die moralische oder rechtliche Verantwortung nicht mehr tragen können, weil sie nicht mehr für die ganze Entscheidung die Verantwortung übernehmen können? Wer ist dann in welcher Weise als verantwortlicher Akteur zu adressieren? Hier tauchen Überlegungen zu einer
electronic personhood auf, wie vom EU-Parlament vorgeschlagen (EU
2015), oder einer erweiterten Produkthaftung (z. B. Hilgendorf
2012). Das bedeutet aber für die Organisationsethik, diesen Digitalisierungsschub und die damit veränderten Entscheidungsprozeduren und Verantwortungszuschreibungen neu zu konzeptualisieren.
Technische Systeme als Elemente der organisationalen Entscheidungen
Als eine sehr viel größere Herausforderung für eine der Digitalisierung angemessene Organisationsethik sehe ich die Entwicklung der technischen Systeme zu Kooperationspartnern bzw. zu Wirklichkeit erschließenden Infrastrukturen. Dahinter verbirgt sich der politische wie technische Wille, mit der Mensch-Maschine‑, Mensch-Roboter- oder allgemeiner: Mensch-Technik-Interaktion die Arbeitswelt zu verändern und neue Wertschöpfungsketten einerseits, Technologieführerschaft in diesem Feld andererseits anzustreben (vgl. BMAS
2017; BMWi
2017). Damit sind noch weitergehende Fragen nach dem Stellenwert von Arbeit, der Verdrängung von menschlicher Arbeit durch Technik oder des menschlichen Kompetenzverlusts verbunden (Manzeschke und Brink
2020b). Darüber hinaus erhebt sich jedoch die Frage, wie diese neuen Kooperationspartner zu verstehen sind. Bereits 2015 hat das EU-Parlament für die Entwicklung von
smart robots, d. h. „cyber physical systems, autonomous systems, smart autonomous robots and their subcategories“ eine „prompt intervention“ auf EU-Ebene gefordert, um die mit ihrer Entwicklung verbundenen ethischen und rechtlichen Fragen zu adressieren (EU
2015). Ganz so prompt ist die Intervention der EU noch nicht erfolgt, doch gibt es hier entsprechende rechtliche Ansätze (vgl. Frenz
2020) und auch ethische Überlegungen (Independent High-Level Expert Group on Artificial Intelligence
2019; IEEE
2018; van den Hoven et al.
2015).
Aus (entscheidungs-)technischer Sicht könnte es zunächst einmal unerheblich sein, wer oder was zu einer Entscheidung beiträgt, sofern der Beitrag als relevant, sachgemäß oder auch „evidenzbasiert“ gewertet werden kann. Aus moralischer Sicht verhält es sich jedoch anders, denn eine Entscheidung im ethischen Sinne setzt ein moralisches Subjekt voraus, das seinerseits andere als moralische Subjekte anerkennt und sich vor ihrer bloßen Instrumentalisierung hütet (vgl. Tugendhat
1993, bes. Kap. 6) und seinerseits Moral zur Lebensorientierung braucht (exempl. Tugendhat
2007).
Solche Merkmale werden üblicherweise am Menschen als Person festgemacht. Nun treten allerdings vermehrt technische Systeme im Gesundheitswesen in Erscheinung, die an moralischen Entscheidungen beteiligt werden und für die man exploriert, ob und wie weit man ihnen Moral „einprogrammieren“ kann (vgl. Misselhorn
2019; Labossiere
2017). Auch wenn man prinzipiell darauf beharrt, dass ein technisches Artefakt kein moralischer Akteur sein kann (Nida-Rümelin und Weidenfeld
2018) bzw. jenem immer ein menschlicher Akteur als Letztinstanz von Entscheidungen zugeordnet sein muss (vgl. Sturma
2004), kommt man faktisch nicht um die Tatsache herum, dass solche technischen Systeme zunehmend so eingesetzt werden,
als ob sie entscheiden könnten. Expertensysteme unterstützen im Tumorboard Therapieentscheidungen (Spreckelsen und Spitzer
2009); in der robotischen Chirurgie agieren teil- oder vollautonome Handlungssysteme (Niederlag et al.
2014); als emotionale Begleiter werden humanoide Roboter zunehmend auch in sozialen und therapeutischen Settings erprobt (vgl. Manzeschke und Assadi
2019; Thompson
2018).
Man mag argumentieren, dass technische Systeme, die bei der Entscheidungsfindung lediglich unterstützen, ethisch keine größeren Probleme bereiten, weil und sofern Menschen am Ende die Entscheidungen treffen und damit die moralische Autorschaft des Menschen gewahrt bleibt. Dem ist jedoch entgegenzuhalten, dass diese Menschen die mit den technischen Systemen kooperativ verfassten Entscheidungen nur noch bedingt überblicken und so – im strengen Sinne – eben nicht mehr die alleinige moralische Autorschaft und damit auch Verantwortung haben können. Der für moralische Entscheidungen postulierte Zusammenhang zwischen Zielsetzung, Mittelwahl und Begründungsfähigkeit des handelnden Subjektes ist in dem Maße außer Kraft gesetzt, als der Mensch systematisch nicht verstehen kann, warum und wie das als „Empfehlung“ verstandene Ergebnis des technischen Expertensystems zustande gekommen ist. Hierbei handelt es sich um ein systematisches Problem, das eine kalkulatorische Ebene hat und eine technische. Kalkulatorisch kann kein Mensch in einer sinnvollen Zeit nachvollziehen, wie das technische System die Menge der in Datenbanken zur Verfügung stehenden Daten über Diagnostik, Behandlungsweisen und
outcomes prozessiert hat, um zu der dann gegebenen Empfehlung zu kommen. Der Verweis darauf, dass die Programmierer der entsprechenden Algorithmen über dieses Wissen verfügen müssten und damit am Ende doch ein menschliches „Verstehen“ des zur Entscheidungsfindung hinzutretenden maschinellen Anteils gegeben sei, verfängt nicht, da solche Algorithmen immer von mehreren Personen (fort-)geschrieben werden, und auch einzelne Programmierer hier irgendwann keinen Überblick mehr haben. Vor allem aber entwickelt sich durch maschinelles Lernen der Algorithmus auf eine Weise weiter, die sich der Kenntnis der Programmierer prinzipiell entzieht. Es handelt sich beim maschinellen Lernen (vgl. Ertel
2016, Kap. 8 + 9; Lenk
1998, Kap. 8) um eine Form der Mustererkennung, bei der u. a. neuronale Netze mit einer beständig anwachsenden Menge von Datensätzen trainiert und in ihrer Treffsicherheit beständig verbessert werden. Der Algorithmus optimiert sich aufgrund dieser Trainingsdaten – allerdings in einem Blackbox-Verfahren, „d. h. sie [sc. die maschinellen Lernverfahren] sind nicht in der Lage einem menschlichen Benutzer zu erklären, warum eine bestimmte Voraussage zustande gekommen ist. Dies mag im Einzelfall hinnehmbar sein, aber um Vertrauen in die Entscheidungen einer Maschine zu haben, ist es im Allgemeinen wichtig, die Gründe nachvollziehen zu können“ (Lakemeyer
2020, S. 828). Hier ist eine „Verantwortungslücke“ zu konstatieren, die ethisch erst noch zu füllen ist.
Technikphilosophisch lässt sich noch eine zweite Ebene dieses Problems beschreiben. Sie besteht darin, dass dem Menschen die Schnittstellen der Interaktion mit den Maschinen zunehmend „indisponibel“ werden (vgl. Hubig
2008). Die technische Seite in der Interaktion, die zu Wahrnehmung, Urteil, Entscheidung und Handlung in einer Mensch-Maschine-Interaktion einen substantiellen Beitrag leistet, entzieht sich zunehmend dem Verständnis und der Bestimmung durch den Menschen – aber sie bestimmt ihn nun umso stärker. Diese Bestimmung durch die Technik in ihrer Medialität ist für den Menschen zunehmend unzugänglich, indisponibel – und zugleich Wahrnehmung, Urteil und Handlung „formatierend“. Wie die von Hubig beschriebenen Parallelkommunikationen zur Kompensation dieser Indisponibilität organisationsethisch zu gestalten ist, bleibt noch eine offene Frage.
Was als Behandlungsentscheidung ausgegeben wird und für die üblicherweise die gemeinsam verfertigte Entscheidung (
shared decision making; vgl. Krones
2015) als Goldstandard gilt, ist also das Ergebnis eines umfangreicheren und akteursreicheren Prozesses, der heterogen konstituiert wird. Hierbei lassen sich mehrere Konfliktlinien identifizieren: Die Interessen und Einschätzungen der verschiedenen fachlichen Professionen, die fachlichen und ökonomischen Prioritäten und eng damit verkoppelt die technischen Möglichkeiten, das Interesse des Individuums auf Berücksichtigung als besonderer „Einzelfall“ und das Interesse der Organisation, möglichst reibungsfrei die verschiedenen Fallgruppen nach einem Standard abzuarbeiten. Zu diesen moralischen, emotionalen, funktionalen, ökonomischen und technischen Aspekten treten nun digitale Kalküle hinzu, die auch einer Profession einen neuen Stellenwert im Zuge der Digitalisierung bescheren. „With this, the role of HIPs [= Health Information Professionals, nicht ganz korrekt mit ‚Medizininformatiker‘ übersetzt] changed from that of supportive technical players in a framework that was rooted in the physician-patient encounter to that of operant facilitators and interfaces between health care institutions, physicians and patients. As a result, the whole obligation structure that had previously attached primarily to HCPs [i.e. Health Care Professionals] and institutions and had only incidentally extended to HIPs came to include HIPs in a direct manner. They now acquired a fiduciary role they had not had before except, if at all, in an accidental sense“ (Kluge
2017, S. 262). Die sich hier ankündigende Neuverteilung von Rollen und Stellenwerten bezieht sich auf alle Professionellen des Gesundheitswesens und wird organisationsethisch zu bedenken sein (vgl. Manzeschke
2018; Manzeschke und Petersen
2020).
Die in der Organisation verfertigten Entscheidungen strukturieren sich entlang der genannten Konfliktlinien, und es ist ein wesentliches Charakteristikum solcher Entscheidungsprobleme, dass sie nicht widerspruchsfrei aufgelöst werden können. Der Moral bzw. den unterschiedlichen Moralen der Personen, Professionen oder Organisationseinheiten kommt hierbei ein katalytischer, vielleicht sogar polemogener Effekt zu. Moral, sofern sie in diesen Entscheidungsprozessen tatsächlich artikuliert wird, vervielfacht die Differenzen und Einschätzungen in Bezug auf eine Entscheidung, weshalb es eben auch starke Tendenzen gibt, der Moral bzw. den Moralen möglichst wenig Raum zu geben, um als Organisation handlungsfähig zu bleiben und nicht (zu) viel Zeit (= Geld) auf die Bearbeitung dieser Differenzen zu verwenden. Wie Jäger und Coffin feststellen, macht artikulierte Moral „die Interaktionssysteme
unfit für Anforderungen aus der Umwelt, also auch für das Entscheiden“ (
2011, S. 56). Hinzu kommt nun noch eine Maschinenethik oder Moral, die in die technischen Systeme explizit hineinprogrammiert werden soll oder auch durch implizite Annahmen der Programmarchitektur und der darin prozessierten Schritte in das gesamte Entscheidungsgefüge eingehen. Die Ethik als Reflexion der Moral(en) hat nun aber nicht einfach eine einhegende, pazifizierende Funktion, indem sie die differenten moralischen Einschätzungen, Anschauungen und Haltungen zu einer auf höherer Ebene liegenden Einheit zusammenführen würde. Vielmehr muss sie die Vielfalt der Perspektiven und Einschätzungen sowie die differenten Modi der Entscheidungsfindung der unterschiedlichen Akteure (Menschen als Rollen- und Funktionsträger und Maschinen als Entscheidungs(Unterstützungs)systeme) in einer komplexitätsadäquaten Theorie konzeptualisieren.
Fazit
Wenn Organisationen sich auf eine Bearbeitung von moralischen Fragen einlassen, dann stehen sie in der Gefahr, die Kontrolle über die darin verhandelten Themen zu verlieren. Die „Ausgriffsweite“ der damit aufgeworfenen Fragen (Heintel
2010, S. 461) stellt für Organisationen, insbesondere ihre Führungen auf allen Ebenen eine Bedrohung dar, weil die investierte Zeit ebenso wie die sozialen Bezüge, emotionalen Gestimmtheiten und etablierten Routinen überfordert werden könnten und das eine Handlungsunfähigkeit der Organisation zur Folge haben könnte. Diese Ausgriffsweite wird durch Digitalisierung und Vernetzung, die damit zur Verfügung gestellten Daten und Kalküle noch einmal vergrößert, was Abwehrreaktionen noch weiter bestärken könnte (Mentzos
1976). Zugleich lässt sich jedoch die mit solchen tiefer greifenden Fragen verbundene Sinndimension nicht einfach abblenden. Es wird also Aufgabe einer ins Digitale erweiterten Organisationsethik sein, alle diese Dimensionen in organisationale Strukturen und Prozesse zu überführen und hierbei auch die Menschen als moralische Akteure zu reintegrieren sowie die Frage nach dem technischen System als einem ethisch relevanten Agens theoretisch wie praktisch zu adressieren. Das kann hier nur als eine anstehende Aufgabe formuliert, aber noch nicht ausgeführt werden.
Es geht um die Wiedergewinnung des Menschen als moralischem Subjekt in der Gestaltung von Ethik in Organisationen. Diese Wiedergewinnung muss gegen Tendenzen arbeiten, die organisationale Prozesse vorrangig, wenn nicht ausschließlich als Funktionen bzw. Kommunikationen verstehen und hierbei von Menschen als Akteuren absehen zu können glauben. Dieser Mensch als moralisches Subjekt ist jedoch keineswegs das souveräne, autarke und aus sich selbst heraus existierende und schöpfende Subjekt, sondern eines, das stets relational, d. h. in Beziehung zu Anderen und Anderem stehend, zu verstehen ist. Dieses moralische Subjekt ist ein wesentliches Element dieser Ethik in Organisationen, das sich moralisch nur glaubwürdig und überzeugend wird engagieren können, wenn es als Person und nicht nur als Funktion oder Rolle teilnehmen und teilgeben kann.
Neben diesem moralischen Subjekt erscheinen nun qua Technik Akteure, die zu der moralischen Entscheidungsfindung beitragen. Ob und in welchem Maße wir Menschen sie als moralische Subjekte ansehen und anerkennen wollen, liegt zum einen in der Art, wie wir sie konstruieren und sich entwickeln lassen werden. Zum anderen liegt es aber zuvor in unserer Entscheidung, ob wir moralische Entscheidungen als etwas betrachten, zu dem auch andere Existenzweisen etwas beitragen können und sollen. Das ist freilich keine Entscheidung, die wir einfach aus dem Lehnstuhl der Dauerreflexion heraus treffen und dann umsetzen könnten. Es ist vielmehr ein Prozess, der zugleich aus einer Praxis hervorgeht und nur in enger Koppelung dieser Praxis mit einer komplexitätsadäquaten Theorie entwickelt werden kann.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.