Skip to main content
Erschienen in: Ethik in der Medizin 1/2024

Open Access 14.11.2023 | Originalarbeit

Künstliche Intelligenz in der Medizin: Von Entlastungen und neuen Anforderungen im ärztlichen Handeln

verfasst von: Max Tretter, David Samhammer, Prof. Dr. Peter Dabrock

Erschienen in: Ethik in der Medizin | Ausgabe 1/2024

Zusammenfassung

Der folgende Beitrag untersucht, wie der Einsatz von Künstlicher Intelligenz (KI) in der Medizin einerseits dazu beitragen kann, Ärzt*innen einige Aufgaben abzunehmen und sie auf sachlicher Ebene zu unterstützen – wie durch diese KI-Anwendungen andererseits jedoch neue Anforderungen auf der sozialen Ebene ärztlichen Handelns entstehen. Entlang der ethischen wie sozialpsychologischen Konzepte Vertrauen, Nachvollziehbarkeit und Verantwortung wird auf konzeptioneller Ebene aufgezeigt, welche neuen Herausforderungen durch den Einsatz medizinischer KI-Anwendungen entstehen und dass diese primär durch Kommunikation bewältigt werden können. Die Notwendigkeit, diese Herausforderungen kommunikativ anzugehen, wird vor dem Hintergrund professionstheoretischer wie ethischer Überlegungen diskutiert. So kommen wir zu dem Schluss, dass der Einsatz medizinischer KI-Anwendungen zu einer Verschiebung im Anforderungsprofil von Ärzt*innen führen wird. Dabei wird der Fokus von rein fachlichen Kompetenzen auf eine stärkere Betonung der Kommunikationsfähigkeiten verlagert.
Hinweise

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Einleitung

Wie James Suzman in seiner Untersuchung Sie nannten es Arbeit zeigt, lässt sich die Geschichte der Menschheit als Kulturgeschichte der (Erwerbs‑)Arbeit lesen (Suzman 2021). Arbeit sei ein menschliches Existenzial, das nicht nur jede Individualbiographie begleitet und einen großen Teil der persönlichen Lebenszeit in Anspruch nimmt, sondern auch historisch sämtliche Menschheitsepochen durchzieht und Gesellschaften prägt. So wurden im Verlauf verschiedener technischer Entwicklungen und „Revolutionen“ aus Agrar- Industrie- und aus Industrie- Dienstleistungs- und Informationsgesellschaften – und aus Bäuer*innen wurden Arbeiter*innen und dann Dienstleister*innen.
Doch die jüngste technische Entwicklung droht, so ein verbreitetes Narrativ, diese Vorherrschaft der Arbeit anzuzweifeln. Wie bspw. Yuval Harari in seinen 21 Lektionen für das 21. Jahrhundert darlegt, sei davon auszugehen – und lasse sich gegenwärtig schon in Anfängen beobachten –, dass Künstliche Intelligenz (KI) und KI-betriebene Roboter immer mehr Aufgaben übernehmen werden, die bislang der Mensch erledigen musste (Harari 2018). Im Zuge dieser informationstechnischen „vierten Revolution“ (Floridi 2015) würden datengetriebene Systeme dem Menschen so zunehmend die Arbeit „abnehmen“ (Frey und Osborne 2013; Hatzius et al. 2023). Lässt diese Prognose bei einigen die Alarmglocken schrillen (Rifkin 2011), geben andere Entwarnung und weisen darauf hin, dass der Mensch wohl niemals ohne Arbeit leben werde, dass sie sich bloß – und hier finden sich Entsprechungen zu Suzmans Darstellungen – verändere (Daugherty und Wilson 2018). Statt selbst z. B. Autos zu reparieren, werden Menschen zukünftig Roboter warten müssen, die Autos reparieren. Und statt selbst Büroarbeit erledigen zu müssen, werden Menschen zukünftig KI überwachen und deren Verwaltungsleistungen einschätzen und optimieren (Schmieder 2019).
Während manche die bevorstehenden Herausforderungen dieser KI-induzierten Arbeitsverschiebungen für die verschiedenen Gesellschaftsbereiche betonen (Knappertsbusch und Gondlach 2021), fokussieren sich andere wiederum auf die damit einhergehenden Möglichkeiten. Zu Letzteren gehört u. a. Eric Topol, der in seinen Überlegungen die Chancen von KI in der Medizin eingehend untersucht (Topol 2020). Eine zentrale These Topols lautet, dass KI im medizinischen Kontext die fachlichen Aufgaben von Ärzt*innen erleichtert, indem sie diese bspw. beim Finden von Diagnosen oder der richtigen Behandlungen unterstützt oder diese Aufgaben weitestgehend ganz übernimmt.
Auch wir gehen von der Hypothese aus, dass KI-Anwendungen Ärzt*innen einige Aufgaben abnehmen und sie auf sachlicher Ebene unterstützen werden. Doch sind wir nicht der Ansicht, dass es dadurch per se zu einer Arbeitserleichterung beim ärztlichen Personal kommt. Denn durch den Einsatz von KI in der Medizin entstehen neue Herausforderungen, die vorrangig kommunikativ adressiert werden sollten. Entsprechend entstehen dadurch, so unsere These, neue Anforderungen auf der sozialen Ebene ärztlichen Handelns.
Um unsere Hypothese in eine begründete These zu überführen, werden wir im Folgenden der Frage nachgehen, welche neuen Anforderungen auf der sozialen Ebene ärztlichen Handelns durch den Einsatz von KI in der Medizin entstehen. Dabei wählen wir folgenden Argumentationsweg: Zuerst werden wir eine Typologie ärztlichen Handelns und seiner verschiedenen Ebenen und Aspekte präsentieren. Anschließend werden wir kurz skizzieren, zu welchen Arbeitserleichterungen auf der Sachebene ärztlichen Handelns es durch den Einsatz von KI in der Medizin kommt. Dann werden wir entlang der normativen Konzepte Vertrauen, Nachvollziehbarkeit und Verantwortungsübernahme darstellen, welche neuen Herausforderungen der Einsatz von KI-Technologien in der Medizin mit sich bringt – und dass diese sich maßgeblich kommunikativ adressieren lassen. Im folgenden Kapitel werden wird unsere Einsichten diskutieren und der Frage nachgehen, wer der primäre Adressat der neuentstehenden Kommunikationsanforderungen ist, werden diese Anforderungen vor dem Hintergrund des normativen Konzepts des Shared-Decision-Making betrachten, die zunehmenden Komplexitäten medizinischer Kommunikation reflektieren und auf die Limitationen unserer Darstellungen eingehen, um dann zu einem abschließenden Fazit zu kommen.

Eine Typologie ärztlichen Handelns

Von Ärzt*innen wird „klassischerweise“ erwartet, die Gesundheit ihrer Patient*innen weitestmöglich wiederherzustellen oder zu erhalten. Dies umfasst die Heilung von Krankheiten sowie die Linderung von Schmerzen, um Menschen zu befähigen, auch in Phasen der Krankheit ein gutes Leben führen zu können (Schramme 2017; Dabrock 2016, 2012, S. 219–286). Um diesen Anforderungen gerecht zu werden, müssen Ärzt*innen eine Fülle sachlicher wie kommunikativer Aufgaben unter Zeitdruck bewältigen: Dazu gehört, Patient*innen zu untersuchen, durch Expert*innenwissen Diagnosen zu stellen und diese sowie entsprechende Therapieoptionen im Gespräch mit den Betroffenen sachgemäß und adressat*innengerecht, d. h. mit einer Sensibilität und Fürsorge für Patient*innen, darzulegen.
Um einen Überblick über die Vielfalt ärztlichen Handelns zu erlangen, ist es hilfreich, im argumentativen Kontext dieses Beitrags heuristisch zwischen einer Sach- und einer Sozialebene ärztlichen Handelns zu unterscheiden.1 Zur sachlichen Ebene zählen in erster Linie das Diagnostizieren kranker Personen, das Finden der besten Behandlung sowie das Monitoring von Patient*innen – kurz, sämtliche fachlich spezifischen Handlungen, für die Ärzt*innen durch eine langjährige fachliche Ausbildung, häufig in theoretische wie praktische Phasen unterteilt und mit einer Spezialisierung verbunden, und durch regelmäßige Weiterbildungen ausgebildet werden (Ratzel und Lippert 2015). Die soziale Ebene ärztlichen Handelns umfasst sämtliche Kommunikationen zwischen Ärzt*innen und Patient*innen, Angehörigen oder anderem klinischen Personal. Diese Kommunikation umfasst wiederum sachliche wie soziale Aspekte, da ärztliches Handeln nie einseitig begriffen werden kann, sondern stets auch in der wechselseitigen Gegenüberstellung von Patient*innen und Angehörigen zu denken ist (Waldenfels 2007; Dörner 2001).
Sachlich geht es darum, relevante Informationen auszutauschen, etwa Patient*innen Diagnosen mitzuteilen, sie über mögliche Behandlungen zu informieren und mit ihnen zu einer Therapieentscheidung zu kommen. Abhängig davon, wer einer Ärzt*in gegenübersitzt oder -liegt – ob dies eine Person mit ausgeprägten medizinischen Vorkenntnissen ist, die die Informationen intuitiv versteht und einordnen kann, oder ob es eine Person ist, die mit den Informationen gar nichts anfangen, sie nicht verstehen oder deren Konsequenzen nicht erfassen kann – muss eine solche Kommunikation auf Sachebene ganz unterschiedlich ablaufen. So kann unter dem sozialen Aspekt verstanden werden, diese Sachinformationen einfühlsam und fürsorglich zu vermitteln, um den Ansprüchen der Patient*innen auch auf affektiver Ebene gerecht zu werden (Fischer 2019; Schäfer 2020). Denn abhängig davon, wen eine Ärzt*in vor sich hat, eine junge Person im besten Alter oder eine alte Person, die sich bereits als „alt und lebenssatt“ (siehe die Bibelstellen Gen 25,8; Gen 33,29; 1Chr 23,1; Hi 42,17) bezeichnet, und welche Diagnosen sie ihr mitteilen muss – angefangen bei einer leichten Krankheit mit guten Aussichten auf vollständige Genesung, einer chronischen Krankheit, die niemals völlig verschwinden wird, aber wahrscheinlich nicht lebensbedrohlich ist, oder einer Krankheit, die wahrscheinlich einen baldigen Tod bedeutet – muss die Sachkommunikation anders und gegebenenfalls sehr behutsam ablaufen. Die Ärzt*in muss sensibel und empathisch sein für die Emotionen, die bei Patient*innen oder Angehörigen aufbrechen können, und darauf gefasst sein, dass Patient*innen ihnen ihre Ängste, Nöte, Hoffnungen aber auch Träume, teilweise auch sensible und vertrauliche Lebens- und Familiendetails mitteilen – und dies geschickt einfangen und verarbeiten können (Faller 2012).2 Zwar lassen sich weder sachliche von kommunikativen Aspekten noch die sachliche von der sozialen Ebene ärztlichen Handelns trennen – vielmehr sind diese Ebenen und Aspekte stets aufeinander verwiesen –, doch helfen diese Unterscheidungen heuristisch dabei, die Komplexität des ärztlichen Handelns besser zu verstehen (Abb. 1).

Ärztliche Arbeitserleichterung auf sachlicher Ebene durch den Einsatz von KI

Wegen der vielfältigen Ansprüche, die an sie herangetragen werden, der vielfältigen Aufgaben, die sie zu erfüllen haben, sowie des ökonomischen Drucks, der vor allem in klinischen Kontexten oft vorherrscht (Vogd et al. 2018), sind Ärzt*innen häufig bis zur Erschöpfungsgrenze ausgelastet (Engler 2022; Patel et al. 2018). Neben der Unterstützung durch Pflege- und Verwaltungspersonal versprechen jüngst vor allem KI-Technologien, Ärzt*innen auf sachlicher Ebene Erleichterungen zu verschaffen, ihnen bei vielen ihrer Aufgaben entweder unterstützend beizustehen oder ihnen die Aufgaben – zumindest theoretisch – ganz abzunehmen. Neben bürokratischen Aufgaben wie dem Verwalten und Verarbeiten digitaler Patient*innenakten (Sen 2019), über das automatische Patient*innenmonitoring mittels smarter Sensoren, die Ärzt*innen kontaktieren, wenn es zu besorgniserregenden Abweichungen kommt (Topol 2020), können KI-Systeme – datenschutzrechtliche Aspekte einmal ausgeklammert – Ärzt*innen auch bei der Diagnose und Behandlungsfindung unterstützen.
Dies lässt sich prominent an zwei Beispielen aufzeigen, die teilweise bereits in klinischen Kontexten Anwendung finden: an KI-Systemen zur Bilderkennung und -segmentierung sowie an KI-Entscheidungsunterstützungssystemen (Shafi et al. 2021). Die Anwendungsfelder für bilderkennende KI-Systeme sind außerordentlich vielfältig. In der Pathologie (Meroueh und Chen 2023), Dermatologie (Li et al. 2022) und Gastroenterologie (Chen und Sung 2021) werden verschiedene KI-Systeme bereits erfolgreich erprobt und implementiert. Ein weiteres vielversprechendes Feld, das aufgrund der Menge an Daten, die dort erhoben und analysiert werden, schon früh auch als Vorhut für den Einsatz von bilderkennender KI galt, ist die Radiologie (Gore 2020). So ermöglichen technische Fortschritte, insbesondere im Bereich von MRT-Scans, immer detaillierte Bildaufnahmen, die eine immer frühere und präzisere Diagnose verschiedener Krebsarten erlauben (Zheng et al. 2023; Bera et al. 2022). Gleichzeitig steigt mit der Bildqualität auch der Aufwand, diese Bilddaten zu analysieren. Um diesen Arbeitsaufwand bewältigen zu können, werden gegenwärtig vielfach und mit Erfolg KI-Systeme eingesetzt. Von manchen wird die Unterstützung durch KI-Systeme gar als unerlässlich eingeschätzt, um die Menge an Bilddaten bewältigen zu können (Bonekamp und Schlemmer 2022), sodass mancherorts bereits das Credo herrscht, dass diejenigen Radiolog*innen, die sich nicht von einer KI helfen lassen, bald durch ein KI-System ersetzt werden (Medical Sciences 2022).
Ein zweites Beispiel sind KI-Entscheidungsunterstützungssysteme, die aktuell vor allem im Kontext von Tumorboards – wo verschiedene Spezialist*innen zusammentreffen, um mit ihrer gemeinsamen Expertise über die effektivste Behandlung von Krebspatient*innen zu diskutieren – eingesetzt werden (Montani und Striani 2019). Dort besteht das grundlegende Funktionsprinzip solcher KI-getriebenen Systeme darin, dass sie auf der Grundlage der Patient*innendaten – u. a. ihrer Gesundheits‑, Verhaltens-, ggf. auch genetischer und weiterer, häufig unstrukturierter Daten – eine Einschätzung treffen, welche Behandlungsoption in diesem konkreten Fall am vielversprechendsten ist (Yang et al. 2017). Solche Analysen und Entscheidungen sind für alle Beteiligten äußerst komplex, da die Effektivität einer Behandlung von diversen Faktoren abhängt, u. a. das Alter, der generelle Gesundheits- wie Fitnesszustand der Patient*innen sowie ihre sozioökonomische Lage und sozialer Rückhalt, die alle beachtet und in ihrer Wechselwirksamkeit berücksichtigt werden müssen. Indem KI-getriebene Entscheidungsunterstützungssysteme in der Lage sind, diese Analysen deutlich schneller und effizienter zu vollziehen als menschliche Expert*innen, und dabei zugleich auf große Datenbanken von Patient*innen mit ähnlichen Diagnosen, die durchgeführten Behandlungen und deren Erfolg zurückgreifen können, versprechen sie nicht nur äußerst präzise Behandlungsvorschläge (Yang et al. 2017), sondern auch hohe Arbeitsersparnisse auf Seiten der beteiligten Ärzt*innen (und anderen Expert*innen).
Diese Beispiele künstlich-intelligenter Technologien zeigen, dass KI auf sachlicher Ebene zur ärztlichen Arbeitserleichterung beitragen kann: indem sie bürokratische Aufgaben erledigt, Monitoringaufgaben und Checkups übernimmt und sogar bei der Diagnosestellung und Behandlungsfindung unterstützt. Diese Erkenntnis wird auch durch empirische Studien zahlreicher kleinerer Systeme gestützt, die oft zwar noch nicht im Einsatz sind, deren Nützlichkeit für die medizinische Praxis jedoch getestet wird. Zum Beispiel zeigt ein auf retrospektiven Patient*innendaten basierendes System zur Risikoeinschätzung nierenerkrankter Patient*innen Potenzial, Ärzt*innen bei der herausfordernden und multifaktoriellen Einschätzung zu unterstützen, inwiefern nach einer Nierentransplantation das Risiko einer Abstoßung oder eines Verlusts der transplantierten Niere besteht (Roller et al. 2022). Werden die Ärzt*innen nach ihren Perspektiven gefragt, begrüßen sie die entlastende Funktion eines solchen Systems (Samhammer et al. 2022). Gleiches gilt für den Einsatz eines Systems zum administrativen und assistierenden Einsatz von Schlaganfällen (Amann et al. 2023) oder sogar für ein System im psychiatrischen Einsatz, das in der Lage ist, eine Vorselektierung möglicher Behandlungsmethoden für Patient*innen mit Depressionen vorzuschlagen (Amann et al. 2023).3 Werden derartige KI-Technologien bislang eher sparsam eingesetzt und erleichtern den ärztlichen Arbeitsalltag eher punktuell, ist anzunehmen – gerade angesichts der kontinuierlichen Digitalisierung des gesamten Gesundheitswesens sowie der rasanten Forschung auf dem Gebiet von KI und Medizin (Jorzig und Sarangi 2020) –, dass solche KI-Technologien bald flächendeckend(er) zum Einsatz kommen werden (Jörg 2018).

Neue Herausforderungen durch den Einsatz von KI

Wie eben aufgezeigt, können KI-Technologien einige ärztliche Aufgaben effizient übernehmen und dadurch auf sachlicher Ebene zur Arbeitserleichterung bei Ärzt*innen beitragen. Gleichwohl bringen neue Technologien stets auch neue Herausforderungen mit sich. Die Herausforderungen zum Einsatz von KI in der Medizin werden dabei viel diskutiert. Dies ist vor allem auch auf den Unterschied von KI-Systemen im Vergleich zu anderen komplexen Technologien zurückzuführen. Dieser besteht darin, nicht nur Daten zu produzieren, sondern diese zu verarbeiten, zu sortieren, zu selektieren und sogar durch konkrete Interpretationsvorschläge zu präsentieren. Aus diesem Grund kann davon ausgegangen werden, dass mit verschiedenen KI-Systemen auf differenzierte Weise in Interaktion getreten werden kann. Auf Grund dessen ist zu vermuten, dass sich die Interpretation eines KI-Systems von der Kenntnisnahme anderer Parameter, wie beispielsweise Laborwerte, unterscheidet. Damit betritt nicht nur eine hilfreiche digitale Kollegin die Bühne medizinischer Praxis, sondern auch ein Akteur, der gängige Routinen und bestehende zwischenmenschliche Beziehungen vor neue Herausforderungen stellt (Braun et al. 2020).
Entlang der repräsentativen sozialpsychologischen und ethischen Kriterien Vertrauen, Nachvollziehbarkeit und Verantwortungsübernahme werden wir aufzeigen, welche Herausforderungen sich durch den Einsatz von KI in der Medizin auf sozialer Ebene auftun.4 Wir werden herausarbeiten, dass sämtliche Vorschläge, diesen Herausforderungen technisch zu begegnen, nicht ausreichen – und dass ein effektives Adressieren dieser Herausforderungen weiterhin zwischenmenschliche Kommunikation erfordert. Daraus schlussfolgern wir, dass durch den Einsatz neuer KI-Technologien in der Medizin neue Aufgaben auf sozialer Ebene entstehen.5

Vertrauen

Eine erste Herausforderung, die der Einsatz von KI mit sich bringt, betrifft Vertrauen. Wie bereits Anthony Giddens (1996) in seiner Analyse der Moderne deutlich macht, ist Vertrauen für das Funktionieren moderner Gesellschaften zentral. Schließlich würde sich niemand in ein Flugzeug setzten, ohne darauf zu vertrauen, dass die Ingenieur*innen es präzise entworfen und die Mechaniker*innen es sorgfältig gebaut haben, es den nötigen Standards entspricht, getestet wurde und dass die Pilot*innen wissen, wie man es bedient. Die Alternative zu diesem Vertrauen wäre eine umfassende Kontrolle, d. h. das lückenlose Überwachen aller technischen Systeme und Prozesse sowie das rigorose Überprüfen der Fähigkeiten aller Beteiligten. Dies würde einerseits enorme Zeitressourcen, andererseits weitreichende fachliche Expertise erfordern, die in diesem Maße keine Einzelperson aufbringen kann. Besonders dann nicht, wenn es nicht nur um das Fliegen im Flugzeug, sondern auch um das Fahren im Auto, das Wohnen in Gebäuden sowie das Verzehren von Lebensmitteln geht. Stellt sich eine umfassende Kontrolle jedoch als unrealisierbar heraus, erweist sich Vertrauen in einer vielfach ausdifferenzierten und niemals in Gänze kontrollierbaren Gesellschaft als Notwendigkeit (Luhmann 2014) – und ein Stück weit als Grundvoraussetzung zum Gebrauch technischer Instrumente wie zur gesellschaftlichen Teilhabe (Böhme 2008).
Auch die Akzeptanz von und der Umgang mit KI-Technologien fordert einen solchen Vertrauensvorschuss (Marcus und Davis 2019). Denn auch diese sind einer vollständigen Kontrolle weitestgehend entzogen (Nowotny 2021) und besitzen – besonders im medizinischen Kontext, wo mit vulnerablen Patient*innen interagiert wird und riskante Entscheidungen getroffen oder beeinflusst werden – sachliche wie soziale Risikopotentiale (Tsamados et al. 2021).6 Um das nötige Vertrauen in KI-Technologien zu erzeugen und langfristig sicherzustellen, hat die Hochrangige Expertengruppe für Künstliche Intelligenz eingesetzt von der Europäischen Kommission (HLEG) Leitlinien für KI-Anwendungen entworfen. Grundlegend wird in diesen gefordert, dass eine KI-Anwendung stets mit geltenden Gesetzen vereinbar sein muss, ethischen Standards entsprechen soll und keine unvorhersehbaren, schädlichen Nebenwirkungen haben dürfen (High-Level Expert Group on Artificial Intelligence 2019). Werden diese Leitlinien eingehalten, so die Hoffnung der HLEG, wird das öffentliche Vertrauen in KI-Technologien und deren gesellschaftliche Akzeptanz wachsen.
Den Empfehlungen der Expertengruppe ist einerseits zuzustimmen: Denn die Gestaltung rechtlicher Rahmenbedingungen, ein solides Testen dieser und angemessene Formen der Zertifizierung sind zweifelsohne wichtig, um ein gewisses Zutrauen in KI-Anwendungen herzustellen und aufrechtzuerhalten (Cremers et al. 2019). Und auch wenn sich Unvorhergesehenes angesichts der sachlichen Risikopotentiale neuer Technologien niemals vollständig vermeiden lässt, wirkt die Verpflichtung auf dieses Ziel vertrauensgenerierend (Beck 1986). Auf der anderen Seite stellt sich die Frage, ob die vorgeschlagenen Rahmenbedingungen ausreichen, um das anvisierte Vertrauen gegenüber KI-Anwendungen zu garantieren (Segers 2022; Zuchowski und Zuchowski 2022). So übt bspw. Joshua James Hatherley (2020) explizite Kritik an den Darstellungen der HLEG, indem er anführt, dass medizinische KI-Anwendungen weder vertrauenswürdig noch -fähig seien. Ausschlaggebend sei dabei die Unterscheidung, sich auf ein System zu verlassen oder ihm tatsächlich Vertrauen entgegenzubringen. Vertrauen, so begründet er, richte sich nicht primär outputorientiert auf die Ergebnisse, die das Gegenüber erzeuge, und deren Richtigkeit (Verlässlichkeit), sondern inputorientiert auf die Motivation des Gegenübers und darauf, ob dessen Interessen mit den eigenen übereinstimmen bzw. kongruent sind. Weiterhin verpflichte entgegengebrachtes Vertrauen das Gegenüber immer darauf, den Vertrauensvorschüssen gerecht zu werden, d. h. es nimmt das Gegenüber in die Verantwortung. Diese Vertrauenskonditionen voraussetzend, schlussfolgert Hatherley: „First, AI systems lack the right kind of motivation for trust – either in the form of encapsulated interest or a sense of good will – since they lack motivation entirely. Second, relations with AI systems cannot be said to be trusting relations, as one might have with a human clinician, since trust generates normative obligations that cannot be borne by an AI“ (Hatherley 2020, S. 480).
So wichtig Hatherleys Hinweis darauf ist, dass KI-Systeme keine Vertrauensträger*innen sein können, so sehr zielt seine Kritik doch an realen Szenarien vorbei. Denn unter medizinischen Realbedingungen wird es in absehbarer Zeit nicht darum gehen, entweder ausschließlich mit menschlichen Ärzt*innen oder ausschließlich mit KI-Systemen zu interagieren. Vielmehr werden Patient*innen zwischen ausschließlich menschlichen Ärzt*innen und menschlichen Ärzt*innen, unterstützt von KI-Systemen, wählen und ihr Vertrauen entweder auf Ärzt*innen oder ein Zweiergespann aus menschlichen und KI-Akteuren richten können. Auch in derlei kooperativen Szenarien werden, wie Braun et al. (2021) betonen, Vertrauensvorschüsse wichtig sein und es ist zentral, entgegengebrachtes Vertrauen aufrecht zu erhalten. Zudem muss damit gerechnet werden, dass unvorhergesehen Fehler passieren und damit Vertrauen auch enttäuscht wird. Es darf demnach nicht nur darüber nachgedacht werden, wie Vertrauen einmalig entstehen kann, sondern auch prozesshaft danach gefragt werden, wie aus Misstrauen wieder Vertrauen gewonnen werden kann. Es wird niemals allein an KI-Systemen liegen können, als Vertrauensgaranten zu dienen.
Die Argumente dieses Abschnitts bündelnd, lässt sich festhalten, dass Vertrauen eine Fundamentalressource für das Funktionieren der Gesellschaft ist – und gerade für die Medizin, in deren Kontext es um hochvulnerable Personen geht. Nun gibt es Überlegungen, wie sich ein solches Vertrauen in (medizinische) KI-Anwendungen herstellen und mittels gesetzlicher Regulierungen, ethischer Orientierungen und umfassender Risikoabwägungen absichern lässt. Gegenüber derartigen Programmen wird eingewandt, dass KI-Anwendungen – so viel Zustimmung die verschiedenen Leitlinien auch finden mögen – selbst nicht im gleichen Sinne Vertrauensträger*innen sein können wie Menschen. Ob und inwiefern KI-Systemen in kooperativen Ärzt*in-KI-System-Szenarien Vertrauen entgegengebracht werden kann oder nicht, ist nach wie vor strittig. Einigkeit besteht jedoch darin, dass Vertrauen in Technologien – und damit auch in KI-Systeme – sozial vermittelt ist (von Eschenbach 2021), da es emotional intelligente und empathische Gegenüber nicht ersetzten kann, gerade durch Fehler der Systeme jedoch durchaus Misstrauen entsteht. Vor diesem Hintergrund wird es weiterhin zentrale Aufgabe des menschlichen Personals sein, in klinischen Kontexten wie innerhalb des Gesundheitssystems als Träger*in von Vertrauen aufzutreten und Sorge dafür zu tragen, dass dieses Vertrauen stetig aufrechterhalten wird (Botsman 2017).

Nachvollziehbarkeit

Eine zweite Herausforderung beim medizinischen Einsatz von KI-Technologien ist Nachvollziehbarkeit. Denn das Sicherstellen von Nachvollziehbarkeit kann, auch wenn es ein solches weder gewähren kann noch allein verantwortlich dafür ist, dazu beitragen, Vertrauen in Systeme zu generieren (Dettling und Krüger 2018; O’Brien 2019). Darüber hinaus steht die Möglichkeit des Nachvollziehens der Vermutung nahe, dass Patient*innen die Diagnosen und empfohlenen Behandlungen dadurch eher annehmen und befolgen würden (Lötsch et al. 2021). Entsprechend ist es von großer Wichtigkeit, Nachvollziehbarkeit beim medizinischen Einsatz von KI-Anwendungen sicherzustellen.
Nachvollziehbarkeit ist ein vielschichtiges Geschehen, das Transparenz, Interpretierbarkeit und Erklärbarkeit umfasst. In Anlehnung an Hänold et al. (2021) verstehen wir die drei Begriffe als einander ergänzende Konzepte. Transparenz und Interpretierbarkeit sind gegeben, wenn eine KI-Anwendung nicht als black box vorliegt, sondern ihre Algorithmen für Außenstehende einsehbar sind (Transparenz) und es möglich ist, sukzessive nachzuverfolgen, welche Schritte eine KI nacheinander vornimmt bzw. vorgenommen hat, um aus einem Input einen Output, d. h. aus medizinischen Daten eine Diagnose und eine Behandlungsempfehlung zu generieren (Interpretierbarkeit). Solange sich die Komplexität von KI-Systemen in Grenzen hält, ist es möglich, Interpretierbarkeit zu gewährleisten. Sobald KI-Systeme jedoch komplexer werden, kann es schwierig bis unmöglich werden, die verschiedenen algorithmischen Abläufe nachzuvollziehen. An dieser Stelle ist es möglich, auf Erklärbarkeit zurückzugreifen. Ihr geht es darum, diejenigen „wesentlichen Einflussfaktoren“ (Hänold et al. 2021, S. 519) aufzuweisen, aufgrund derer die KI ihre Entscheidungen getroffen hat und zu einem Ergebnis gekommen ist.
Neben Bemühungen, KI-Anwendungen transparent zu gestalten, d. h. deren Algorithmen einsehbar zu machen, und ihre Datenverarbeitungsprozesse interpretierbar bzw. rückverfolgbar, ist es ein zentrales Forschungsanliegen, KI-Anwendungen auch erklärbar zu gestalten, d. h. ihnen beizubringen, entscheidungsleitende Parameter offenzulegen und eventuell auch aufzuzeigen, wie Letztere hätten anders sein müssen, um das Endergebnis zu verändern (Wachter et al. 2018). Wie diese Erklärbarkeit erreicht und implementiert werden kann, wird unter dem Begriff der Explainable AI (XAI) breit diskutiert (Holzinger et al. 2019, 2018).
Dabei muss jedoch betont werden, dass Erklärungen höchst kontextsensibel sind. Denn, wie O’Brien (2019) in seinen Reflektionen über Nachvollziehbarkeit und Vertrauen argumentiert, setzt ein bedeutsames Verständlich- und Nachvollziehbarmachen eine Beachtung der konkreten Situationen voraus. Dies verdeutlicht er, indem er das dynamische Ärzt*in-Patient*in-Gespräch mit dem Lesen einer Informationsbroschüre vergleicht. Zwar kann die Broschüre dieselben Informationen enthalten, die auch im Gespräch vermittelt werden – doch besitzt Letzteres den Vorteil, dass darüber hinaus die personalen, institutionellen, technischen und situativen Rahmenbedingungen mitbeachtet werden können. Erst dieses situationssensitive, dynamische und für Rückfragen offene Gespräch mit einem fachkenntlichen Gegenüber kann, so O’Brien, im vollen Umfang verständlich und nachvollziehbar machen, wie eine Entscheidungsinstanz, sei dies nun eine Ärzt*in oder eine KI, in einer konkreten Situation vorgeht und zu ihren Ergebnissen gelangt – und so auch wesentlich effizienter Vertrauen in KI-Anwendungen und deren Empfehlungen stiften. Nachvollziehbarkeit ist damit als „sozialer Prozess“ zu verstehen – und Kommunikation als Mittel der Wahl zur Herstellung dieser.
Diese sozialen Kontexte des Nachvollziehbarmachens können KI-Anwendungen – trotz bestehender Versuche, XAI auch situationssensibel zu gestalten (Sanneman und Shah 2020) – bislang nicht hinreichend beachten. Diese „Erklärbarkeitslücke“, die dort auftritt, wo eine nicht-kontextsensitive KI einzig über ihr Vorgehen und entscheidungsrelevante Parameter referiert, lässt sich bislang insbesondere durch Gespräche mit fachkenntlichen, menschlichen Gegenübern schließen. Um die Nachvollziehbarkeit von KI-Systemen zu gewährleisten, ist es demnach wichtig, medizinisches Personal freizustellen, um sich Zeit für die Patient*innen zu nehmen und mit ihnen die Entscheidungswege der KI-Anwendung in einem situationssensiblen Dialog zu erörtern.

Verantwortungsübernahme

Eine dritte Herausforderung besteht in der Zurechenbarkeit medizinischer Entscheidungen bzw. der Verantwortungsübernahme für ihre Folgen. Konkret wird diese Herausforderung in Fragen wie: Wem kann eine Patient*in danken, wenn sie durch eine richtige Diagnose und wirksame Behandlung wieder gesund wird? Oder, deutlich bedenklicher: Wer muss im Schadensfall, d. h. im Fall, dass die Diagnose falsch ist und die Behandlung keine gesundheitliche Verbesserung oder sogar eine Verschlechterung mit sich bringt, für die KI-Entscheidung geradestehen (Zuchowski und Zuchowski 2022)? Wem ist der Fehler kausal zuzuschreiben, wer ist moralisch schuldig und juristisch haftbar zu machen (Santoni de Sio und Mecacci 2021)? Sind es die KI-Anwendungen selbst und wenn ja, was heißt es, dass sie verantwortlich sind und welche Konsequenzen folgen für sie daraus? Sind es die Entwickler*innen der KI, die zwar die technischen Fundamente gelegt haben, in der konkreten Situation jedoch nicht anwesend waren? Sind es die Ärzt*innen, die dem künstlich-intelligenten Diagnose- und Behandlungsfindungsprozess der KI beiwohnen und deren Empfehlungen eventuell umsetzten, ohne die Entscheidungsfindungsprozesse dabei aktiv beeinflussen zu können? Oder sind es die Patient*innen selbst, getreu dem Motto: Wer sich in Gefahr begibt …?
Auf die Vielzahl der beteiligten Akteure verweisend, werden die Unklarheiten der Verantwortungszuschreibung beim Umgang mit KI-Anwendungen häufig als „Problem der vielen Hände“ (Coeckelbergh 2020) bezeichnet. Denn gerade wegen der Vielzahl von Beteiligten, lässt sich keinem von ihnen eindeutig die volle Verantwortung zuschreiben – weder kausal noch moralisch oder juristisch –, sodass es letztlich zu einer „Diffusion“ (Bleher und Braun 2022) der Verantwortung und sich auftuenden Verantwortungslücken kommt (Santoni de Sio und Mecacci 2021).
Da sich derartige Verantwortungslücken negativ auf das Patient*innenvertrauen in KI-Anwendungen (Johnson 2014) sowie deren Akzeptanz (Zhang et al. 2021) auswirken können, werden Verantwortungsfragen im KI-Kontext viel diskutiert und verschiedene Lösungsvorschläge vorgebracht (Bleher und Braun 2022; Tigard 2021). So überlegen manche, ob eine KI-Anwendung nicht doch für eventuelle Fehlentscheidungen und deren Folgen moralisch oder juristisch verantwortlich gemacht werden könne – und wie dies aussehen könnte (Tigard 2021; Bertolini und Episcopo 2022). Andere hingegen fragen, ob aus rechtlicher Perspektive nicht auch ein Teilen der Verantwortung zwischen allen Beteiligten vorstellbar wäre und Programmierer*innen, Ärzt*innen und Patient*innen je eine gewisse Teilverantwortung, inklusive der damit einhergehenden Schuld- wie Rechtsverpflichtungen, zugeschrieben werden könnte (Steinrötter 2020). Trotz der Progressivität einiger Vorschläge ist das Verantwortungsproblem – nicht zuletzt aufgrund fehlender ethischer Durchdringung und rechtlicher Grundlagen für KI- oder geteilte Verantwortungszuschreibungen – gegenwärtig bislang ungelöst.
Diese Unklarheit bezüglich Verantwortungsfragen, die der Einsatz von KI-Anwendungen mit sich bringt, bei gleichzeitigem Wunsch, auf KI-Anwendungen dennoch nicht verzichten zu müssen, wird gegenwärtig meist so gelöst, dass einer Partei, die am KI-Einsatz beteiligt ist, die volle juristische Verantwortung zugeschrieben wird. Zwar bleiben Fragen der moralischen Verantwortung dadurch weiterhin ungeklärt, doch stehen dem Einsatz von KI-Anwendungen fortan keine rechtlichen Hürden mehr im Weg. Im medizinischen Kontext sind es meist Ärzt*innen, denen in der gegenwärtigen Praxis aus Mangel an Alternativen häufig die juristische Verantwortung zugeschrieben wird und die als sprichwörtliche „Haftungsknechte“ (Hermann et al. 2020; Beck et al. 2023) eingesetzt werden. Doch auch wenn Ärzt*innen sich diese Rolle als Letztverantwortliche oftmals aneignen, ist dies allenfalls als Interimslösung zu betrachten (Funer et al. 2023).
Bis eine klare Regelung zur Verantwortungsübernahme beim Einsatz von KI-Systemen in der Medizin gefunden wird, sollten zumindest bestimmte Grundvoraussetzungen erfüllt sein. Zunächst sollten Patient*innen stets umfassend darüber informiert werden, dass durch den Einsatz solcher Systeme Verantwortungslücken oder -diffusionen entstehen können. Diese könnten gegebenenfalls durch nachträgliche Untersuchungen der jeweiligen Vorgänge geschlossen werden. Auch könnten Verantwortliche gefunden oder in Quotelungsprozessen Teilverantwortungen zugeschrieben werden. Jedoch ist deutlich zu betonen, dass stets auch das Risiko besteht, dass am Ende keine eindeutigen Verantwortungszuschreibungen getätigt werden können. Für Situationen, in denen trotz Schadensereignis kein*e Verantwortliche*r ermittelt werden kann, sollten spezielle Härtefallfonds eingerichtet werden. Diese dienen dazu, die anfallenden Kosten für solcherlei Schäden zu tragen und die betroffenen Personen zu entschädigen (Samhammer et al. 2023). Um Patient*innen über den Umgang mit derlei Verantwortungsfragen aufzuklären, sind persönliche Gespräche, die offen sind für Rückfragen, vor, während und nach der Behandlung unerlässlich.

Diskussion

Nachdem wir aufgezeigt haben, wie der Einsatz von KI-Technologien Ärzt*innen einerseits bei ihren sachlichen Aufgaben unterstützen und ihnen so Arbeitserleichterungen verschaffen kann, wie es andererseits zu neuen Herausforderungen auf den Gebieten Vertrauen, Nachvollziehbarkeit und Verantwortungsübernahme kommt, die sich vorrangig kommunikativ adressieren lassen, werden wir diese Einblicke nun diskutieren. Wir werden zuerst der Frage der Zuständigkeit nachgehen und erörtern, in wessen primärer Verantwortung es liegt, den vermehrten Kommunikationsanforderungen nachzukommen. Schließlich werden wir die verstärkten Kommunikationsanforderungen knapp vor dem Konzept des Shared-Decision-Making (SDM) diskutieren, dann die Komplexität der ablaufenden Kommunikationsprozesse beleuchten und zuletzt auf die Limitationen unserer Darstellungen zu sprechen kommen.

Zur Zuständigkeit für kommunikative Anforderungen

Wenn der Einsatz von KI-Anwendungen neue Herausforderungen produziert und menschliche Kommunikation eine wichtige Rolle dabei spielt, diesen Herausforderungen zu begegnen, entstehen nicht nur neue kommunikative Anforderungen – es stellt sich auch die Frage, wer die*der primäre Adressat*in dieser Anforderungen ist. Wer wird für die Kommunikation mit Patient*innen, aber auch mit deren Angehörigen, Entwickler*innen sowie weiterem medizinischen Personal zuständig sein? Und wer wird dafür verantwortlich sein, kommunikativ ein soziotechnisches Umfeld zu schaffen (Ackerman et al. 2018), in dem KI-Anwendungen langfristig produktiv in der Medizin genutzt werden können (von Eschenbach 2021)?
Klar sollte sein: Die Verantwortung für diese Kommunikation sollte nicht allein auf den Schultern von Ärzt*innen liegen. Zwar ist es wichtig, Ärzt*innen bereits während ihrer Ausbildung, etwa im Rahmen der Approbationsordnung, die 2025 in Kraft treten soll (Richter-Kuhlmann 2020), aber auch darüber hinaus in Form von Fortbildungen Kompetenzen zum Umgang mit medizinischen KI-Anwendungen zu vermitteln (Mosch et al. 2021), doch sollten sie nicht zu den alleinigen Kommunikationsverantwortlichen gemacht werden. Neben den Ärzt*innen sind auch das weitere medizinische und technische Personal in die kommunikative Pflicht zu nehmen. Ebenso kann auch Patient*innen zugetraut werden, ihre Fragen zum Einsatz von KI-Systemen zu stellen. Darüber hinaus ist der Vorschlag zu begrüßen, eigene Expert*innen auszubilden, die an der Schnittstelle zwischen Informationstechnologie und klinischem Alltag für Patient*innenkommunikation wie die Organisation der Kommunikation zwischen allen Beteiligten zuständig sind (Quinn et al. 2021). Als konkretes Vorbild kann hier beispielsweise die Funktion des Chief Digital Officer genannt werden, dessen Aufgabenfeld gegenwärtig darin besteht, die Schnittstelle zwischen medizinischer Praxis und Informationstechnologie abzudecken (Walchshofer und Riedl 2017) – und die auf den Bereich des KI-Einsatzes erweitert werden könnte.
Doch trotz dieser produktiven Vorschläge ist zu erwarten, dass sich, zumindest übergangsweise, ein großer Teil der Kommunikationserwartungen und -anforderungen an Ärzt*innen richten wird. Denn durch ihre fachkundliche Expertise und ihre professionelle Allgemeinwohlorientierung (Mittelstadt 2019) sowie ihre Rolle als primäre Ansprechpartner*innen der Patient*innen und Vertrauensträger*innen im medizinischen Bereich (Hanson et al. 2008) sind Ärzt*innen für anfallende Kommunikationsaufgaben prädestiniert. Mögen diese kommunikativen Anforderungen neu erscheinen, ist vor obiger Typologie ärztlichen Handelns, aber auch vor einem professionssoziologischen Hintergrund festzuhalten, dass Kommunikationsaufgaben immer schon zum Anforderungsprofil ärztlichen Handelns gehörten. Denn die klassische Profession der Mediziner*in zeichnet sich nicht nur durch eine notwendige Expertise und eine relativ hohe Autonomie bei der praktischen Ausübung aus (Pfadenhauer und Sander 2010), sondern auch durch eine Verantwortlichkeit gegenüber den Patient*innen und Empathie (Flickinger 2018). Eine der zentralen Anforderungen an Ärzt*innen bestand daher seit jeher in der Fähigkeit der Einzelfallbetrachtungen von Patient*innen unter Berücksichtigung von Expertenwissen (Oevermann 2002). Wenn im Zuge des medizinischen Einsatzes von KI-Anwendungen also neue Kommunikationsanforderungen entstehen und an Ärzt*innen herangetragen werden, stellt dies keine radikale Neuerung dar. Vielmehr erweist sich Kommunikation als kontinuierliches Motiv des professionellen ärztlichen Handelns – und rückt nun deutlicher in den Fokus des Aufgabenprofils von Ärzt*innen, gerade auch um klassische Merkmale professionellen Handelns aufrechtzuerhalten (Noordegraaf 2020). Zusammenfassend ist daher anzunehmen, dass von Ärzt*innen in ihrem ohnehin schon dichten Arbeitsalltag zusätzlich erwartet wird, sich noch intensiver mit der Aufklärung der Patient*innen über KI-Technologien zu befassen und so Vertrauen in diese Technologien zu stärken, die Transparenz KI-basierter Entscheidungen im Dialog zu gewährleisten und ein Kommunikationsumfeld zu schaffen, in dem Verantwortungsfragen adressiert und ausgehandelt werden können.

Kommunikative Anforderungen und Shared-Decision-Making

Die Zentralthese des Textes, dass es durch den Einsatz von KI in der Medizin zu einem Anstieg sachlicher und sozialer kommunikativer Aufgaben kommen wird, werden wir nun knapp mit dem aktuell vieldiskutierten medizinethischen Konzept der partizipativen Entscheidungsfindung (Shared-Decision-Making) ins Gespräch bringen. Ziel dabei ist es zu zeigen, dass die Wichtigkeit medizinischer Kommunikation auch in der Ethik wahrgenommen wurde und entsprechende Forderungen sich in medizin- wie KI-ethischen Konzepten widerspiegeln.
Als normatives Konzept fordert das Shared-Decision-Making (SDM), die Bedürfnisse der Patient*innen nicht nur passiv in die Behandlung mit einfließen zu lassen, sondern ihnen die Möglichkeit zu geben, als selbstbestimmte Subjekte aufzutreten und behandlungsrelevante Entscheidungen aktiv mitzutreffen (While 2019). Diese aktive Beteiligung der Patient*innen setzt voraus, dass die behandelnden Ärzt*innen ihren Patient*innen die für ihre Entscheidungen relevanten Informationen zur Verfügung zu stellen – was auch bedeutet, sie ihnen bedarfsgerecht und nachvollziehbar zu vermitteln (Kelley et al. 2015). Diese SDM-Anforderungen erhöhen nicht nur den ärztlichen Koordinationsaufwand (Driever et al. 2020), sondern erfordern eine Vertrauensbasis (Thomas et al. 2021), die die Ärzt*innen-Patient*innen-Beziehung insgesamt auf ein neues kommunikatives Level hebt (Elwyn et al. 2012; Selby et al. 2022).
Auch beim Einsatz von KI-Systemen ist es Ärzt*innen wichtig, SDM zu ermöglichen (Lorenzini et al. 2023). Stellte diese Form der Patient*innenpartizipation bereits in der „analogen“ Medizin eine große Herausforderung für alle Beteiligten dar, werden die durch das SDM bereits intensivierten Kommunikationsanforderungen durch den Einsatz von KI-Anwendungen teilweise nochmals potenziert. Dies erfordert neue Kompetenzen auf Seiten der Ärzt*innen (Mosch et al. 2021). Zwar liegen bereits erste Untersuchungen zu den Auswirkungen von KI auf SDM vor (Abbasgholizadeh Rahimi et al. 2022; Jayakumar et al. 2021; Macri und Roberts 2023; Lorenzini et al. 2023), doch haben diese oftmals einen sehr spezifischen Fokus auf die Akzeptanz der Systeme, sodass weiterhin großer Forschungsbedarf besteht. Es ist nach wie vor nicht hinreichend geklärt, wie das Hinzuziehen neuer KI-Technologien die Ärzt*innen-Patient*innen-Beziehung und deren gemeinsames Entscheidungsfinden nachhaltig beeinflusst und wie die Systeme eingesetzt werden können, um SDM dezidiert zu fördern. Dafür bräuchte es Langzeitstudien, die in der Lage sind, nicht nur quantitative, sondern auch qualitative Veränderungen in der Kommunikation zwischen Ärzt*in und Patientin*in nachzuzeichnen, wenn diese durch ein KI-System intermediert wird.

Komplexe Kommunikationsprozesse und beteiligten Akteure

Bei der Betrachtung der obigen Ausführungen fällt auf, dass durch den Einsatz von KI-Anwendungen die Kommunikationsbedingungen und -abläufe komplexer werden. Die Interaktionen zwischen verschiedenen Parteien – unter anderem Ärzt*innen, Ober- und Assistenzärzt*innen, Patient*innen, Angehörigen, Pfleger*innen und technischen Entwickler*innen wie Assistent*innen – in unterschiedlichen Kontexten – unter anderem Arztpraxen und Kliniken, häusliche Umgebungen, betreute Wohnanlagen, Forschungs- oder spezialisierte Pflegeeinrichtungen – intensivieren sich. Gleichzeitig bleiben bestehende Anforderungen an Ärzt*innen als Teil der medizinischen Profession bestehen und werden durch den Anspruch, partizipative Entscheidungsfindung möglich zu machen, nochmals intensiviert. Es kann sich als äußerst herausfordernd erweisen, derart vielschichtige Kommunikationsdynamiken zu erfassen, ohne dass es dadurch zu Reduktionen kommt oder der Begriff selbst seine Konturen verliert und unscharf wird.
Ein vielversprechender Ansatz, der dabei helfen kann, dieses „Kommunikationsgetümmel“ zu überblicken und sich dem Kommunikationsgeschehen anzunähern, ist Bruno Latours Akteur-Netzwerk-Theorie (Latour 2008). Sie erlaubt es, Kommunikation nicht als einen sekundären Austauschprozess zwischen etablierten Parteien zu begreifen, sondern gebietet, bei konkreten Interaktionsprozessen zu starten und bottom up nachzuvollziehen, wer sich im Kontext welcher Themen und auf welchen Ebenen wie zueinander verhält und wie die Akteure sich selbst aber auch ihr Verständnis von „Kommunikation“ durch diese Wechselwirkungen gegenseitig konstituieren (Belliger und Krieger 2006).
Diese empirische Herangehensweise erlaubt es, die Vielseitigkeit der Kommunikationsprozesse nachzuvollziehen (Latour 2010). Gleichzeitig führt sie zu einer Erweiterung des Kommunikationsbegriffs. Denn bei der Untersuchung konkreter Interaktionsprozesse wird schnell klar, dass nicht nur Menschen eine relevante Rolle in diesen spielen, sondern auch nichtmenschliche Akteure. Auch Gebäude, Räume, Möbel und technische Geräte beeinflussen Kommunikationsprozesse maßgeblich – weswegen sie immer mitzuberücksichtigen sind und weswegen ihnen eine eigene Form von Handlungsfähigkeit sowie ein eigenständiger Aktant*innenstatus zuzugestehen ist (Latour 2018).
Für die Analyse von Kommunikationsprozessen in der KI-gestützten Medizin bedeutet dies, dass sie mehr erfordert als die Beschreibung, ob und wie ein KI-System genutzt wird. Vielmehr bedarf es einer detaillierten Untersuchung, wie komplexe Netzwerke aus Menschen, Objekten und Technologien neu gestaltet werden, wenn KI-Systeme implementiert und genutzt werden – und welche Bedeutungsverschiebungen der Einbezug von KI in die Medizin initiiert (Deutscher Ethikrat 2023). Es geht darum, in praxisnaher Weise immer noch genauer hinzusehen und die verzweigten Interaktionsprozesse detailliert nachzuverfolgen. Oder, um es mit Latour zu sagen: „Please, more details, I want more details“ (Latour 2005, S. 137).

Limitationen

Unsere Überlegungen unterliegen zwei Limitationen. Als erste ist zu nennen, dass wir das Aufkommen neuer kommunikativer Anforderungen und deren Einfluss auf das ärztliche Anforderungsprofil auf rein konzeptioneller Ebene untersuchen, ohne eigene empirische Evidenzen anzuführen. Um unseren Ergebnissen dennoch Plausibilität zu verleihen, verweisen wir im Text bereits auf ein breites Spektrum empirischer Studien (Fernau et al. 2018; Jongsma et al. 2021; Schwartz et al. 2021; Aminololama-Shakeri und Lopez 2019; Sonar und Weber 2022; Samhammer et al. 2022). Darüber hinaus ist darauf hinzuweisen, dass ähnliche Beobachtungen auch von anderen Autor*innen gemacht werden. Bspw. von Yuval Harari, der in seinen 21 Lektionen ebenfalls herausarbeitet, wie der Einsatz von KI-Anwendungen in sämtlichen gesellschaftlichen Bereichen neue Herausforderungen und Kommunikationsanforderungen mit sich bringt (Harari 2018), oder von Eric Topol, der in seinen Überlegungen die Wichtigkeit der menschlichen Kommunikation im Zeitalter künstlich-intelligenter Medizin betont (Topol 2020).
Eine zweite Limitation stellt unser ausschließlicher Fokus auf den Bereich Medizin dar, obwohl wir einleitend behauptet haben, dass sich vergleichbare Anforderungsverschiebungen und kommunikative Profilierungen in sämtlichen KI-durchwirkten Gesellschaftsbereichen werden beobachten lassen können. Auch wenn wir andere gesellschaftliche Bereiche nicht gesondert in den Blick nehmen, sondern uns paradigmatisch auf den KI-getriebene Anforderungswandel in der Medizin fokussieren, sind die Aufgaben und Anforderungen anderer Bereiche mit denen der Medizin vergleichbar, weswegen ein ähnliches Zentralerwerden von Kommunikation auch anderswo in der Gesellschaft festzustellen ist (Whittlestone und Clarke 2022).

Schluss

Dieser Beitrag ging von der Beobachtung aus, dass durch den Einsatz von KI-Anwendungen massive Veränderungen in der Arbeitswelt zu erwarten sind, die sich teils gegenwärtig bereits ankündigen. Dies stellte uns vor die Frage, zu welchen Verschiebungen es durch den KI-Einsatz in der Medizin im ärztlichen Arbeitsprofil kommt – worauf wir die These entwickelten, dass durch den Einsatz medizinischer KI-Anwendungen neue Anforderungen auf der sozialen Ebene ärztlichen Handelns entstehen werden.
Dieser These nachgehend, haben wir, nach einem Entwurf einer Typologie des Handelns von Ärzt*innen, gezeigt, welche Aufgaben KI-Anwendungen in der Medizin bereits übernehmen und so zu Entlastungen auf der Sachebene ärztlichen Handelns beitragen können. Gleichzeitig bringt der Einsatz medizinischer KI, wie wir im folgenden Kapitel anhand von Vertrauen, Nachvollziehbarkeit und Verantwortungsübernahme gezeigt haben, neue Herausforderungen mit sich. Zwar existieren einige eher technische Lösungsvorschläge für diese Herausforderungen – es erscheint jedoch wichtig, diese auch weiterhin maßgeblich kommunikativ zu adressieren. Dies führt, wie wir in der Diskussion zeigen, zu einem wahrscheinlichen Anstieg der Kommunikationsanforderungen auf sachlichen und sozialen Ebenen, die sich, aufgrund ihrer Prädestination für diese Aufgaben, in erster Linie an Ärzt*innen richten werden. Die Ausgangsthese bestätigend, dass kommunikative Aufgaben zunehmend in den Fokus ärztlichen Handelns rücken werden, gilt es nun bei der zukünftigen Betrachtung des Einsatzes von KI in der Medizin, den Fokus auf die Kommunikation nicht zu vernachlässigen.

Danksagung

Diese Arbeit wurde aus Mitteln der Deutschen Forschungsgemeinschaft (SFB 1483, Projektnummer 442419336, EmpkinS) sowie des Bundesministeriums für Forschung und Bildung (Förderkennzeichen 01GP2202B) finanziert. Zudem wurde sie durch ein Stipendium des Deutschen Akademischen Austauschdienstes unterstützt. Die Förderung spielte keine Rolle bei der Durchführung der Forschung oder der Erstellung des Manuskripts. Wir bedanken uns bei Tabea Ott und Fiona Bendig für ihr Mitwirken bei der Erstellung des Beitrags, hilfreiche Kommentare und wertvolle Diskussionen.

Einhaltung ethischer Richtlinien

Interessenkonflikt

M. Tretter, D. Samhammer und P. Dabrock geben an, dass kein Interessenkonflikt besteht.

Ethische Standards

Für diesen Beitrag wurden von den Autor/-innen keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

e.Med Interdisziplinär

Kombi-Abonnement

Jetzt e.Med zum Sonderpreis bestellen!

Für Ihren Erfolg in Klinik und Praxis - Die beste Hilfe in Ihrem Arbeitsalltag

Mit e.Med Interdisziplinär erhalten Sie Zugang zu allen CME-Fortbildungen und Fachzeitschriften auf SpringerMedizin.de.

Jetzt bestellen und 100 € sparen!

e.Dent – Das Online-Abo der Zahnmedizin

Online-Abonnement

Mit e.Dent erhalten Sie Zugang zu allen zahnmedizinischen Fortbildungen und unseren zahnmedizinischen und ausgesuchten medizinischen Zeitschriften.

Ethik in der Medizin

Print-Titel

• Forum für die wissenschaftliche Erarbeitung, interdisziplinäre
Kommunikation und Vermittlung von Ethik in der Medizin in
allen Anwendungsbereichen
• Offizielles Organ der Akademie für Ethik in der Medizin

Fußnoten
1
Es existieren zahlreiche Ansätze zur Typologisierung ärztlichen Handelns. Eine Möglichkeit wäre, das ärztliche Handeln anhand gesellschaftspolitischer Fragen und des Verhältnisses von Gesundheit und Krankheit darzustellen. Alternativ könnte man nach den diversen Anforderungen unterscheiden, die an Ärzt*innen herangetragen werden, oder verschiedene Formen der Interaktion zwischen Arzt*innen und anderen Akteuren als Ausgangspunkt für die Typologie verwenden. In dieser Arbeit wählen wir pragmatisch eine Unterteilung entlang einer sachlichen und einer sozialen Ebene, da diese Unterscheidung dazu beiträgt, unsere These zu verdeutlichen sowie auf die Grundanforderung an Ärzt*innen verweist, analytische Fähigkeiten und technisches Wissen mit hermeneutischen Einzelfallbetrachtungen zu verbinden (Ohlbrecht und Winkler 2023). Dabei sind wir uns der Tatsache bewusst, dass dies lediglich eine von vielen möglichen Herangehensweisen zur Typologisierung ärztlichen Handelns darstellt.
 
2
Häufig beinhaltet ärztliche Kommunikation auch beratende Aspekte (Rothenfluh und Schulz 2019). Denn nicht selten sind Patient*innen und auch Angehörige ratsuchend und wissen nicht, wie sie eine Diagnose einschätzen können oder welche Behandlungsalternative medizinisch am sinnvollsten sei – oder gegebenenfalls auch, wie sich die Ärztin an ihrer statt entscheiden und welche Behandlung sie wählen würde. Diese beratenden Aspekte führen wir nicht als eigene Kategorie an, sondern rechnen sie den sachlichen wie sozialen Aspekten zu.
 
3
Umgekehrt zeigt der empirische Blick auch, dass der Einsatz von KI, neben der erhofften Unterstützung und Entlastung, manche Prozesse auch verkomplizieren kann (Shin et al. 2023). Dies geschieht vor allem dort, wo die Empfehlungen eines KI-Systems zu Unsicherheiten führen, etwa indem sie zu anderen Ergebnissen kommen als menschliche Ärzt*innen oder andere Behandlungsempfehlungen geben.
 
4
In dieser Arbeit konzentrieren wir uns exemplarisch auf diese drei Herausforderungen und Konzepte, da sie im Diskurs über KI und Medizin prominent hervortreten und sich deshalb hervorragend eignen, unsere These repräsentativ an ihnen zu entwickeln. In analoger Weise wäre es möglich, auch weitere Konzepte und Herausforderungen aufzugreifen – etwa Fragen, die sich durch den Einsatz von KI hinsichtlich Akteurschaft, Partizipation, Gerechtigkeit oder Voreingenommenheit ergeben (Jarzębowski 2022; Braun et al. 2020) oder solche, die sich auf epistemischer Ebene eröffnen (Tretter 2023, 2021) – und die Punkte, die wir exemplarisch an den drei repräsentativen Herausforderungen und Konzepten aufgezeigt haben, auch an diesen aufzuzeigen.
 
5
Diese Schlussfolgerung sollte nicht als Plädoyer verstanden werden, den Einsatz von KI in der Medizin zu stoppen, weil sie möglicherweise bestimmten ethischen oder sozialpsychologischen Kriterien nicht gerecht wird. Stattdessen unterstreicht es die Notwendigkeit, medizinische KI in zwischenmenschliche Kommunikationsprozesse einzubetten, um ihr Potenzial voll zu entfalten, ohne dabei ethische Anforderungen zu verletzen.
 
6
Von sachlichem Risiko würde man bspw. sprechen, wenn durch den Einsatz von KI in der Medizin Diagnosen weniger präzise würden. Von sozialen Risiken hingegen dort, wo bspw. durch den Einsatz von KI in der Medizin das Vertrauen von Patient*innen in das Gesundheitssystem sinken würde.
 
Literatur
Zurück zum Zitat Ackerman M, Goggins S, Herrmann T, Prilla M, Stary C (Hrsg) (2018) Designing healthcare that works. A sociotechnical approach. Academic Press, London Ackerman M, Goggins S, Herrmann T, Prilla M, Stary C (Hrsg) (2018) Designing healthcare that works. A sociotechnical approach. Academic Press, London
Zurück zum Zitat Beck U (1986) Risikogesellschaft. Auf dem Weg in eine andere Moderne. Suhrkamp, Frankfurt am Main Beck U (1986) Risikogesellschaft. Auf dem Weg in eine andere Moderne. Suhrkamp, Frankfurt am Main
Zurück zum Zitat Belliger A, Krieger DJ (Hrsg) (2006) ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. transcript, Bielefeld Belliger A, Krieger DJ (Hrsg) (2006) ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. transcript, Bielefeld
Zurück zum Zitat Böhme G (2008) Invasive Technisierung. Technikphilosophie und Technikkritik. Die Graue Edition, Kusterdingen Böhme G (2008) Invasive Technisierung. Technikphilosophie und Technikkritik. Die Graue Edition, Kusterdingen
Zurück zum Zitat Botsman R (2017) Who can you trust? How technology brought us together and why it might drive us apart. Public Affairs, New York Botsman R (2017) Who can you trust? How technology brought us together and why it might drive us apart. Public Affairs, New York
Zurück zum Zitat Cremers AB, Englander A, Gabriel M, Hecker D, Mock M, Poretschkin M, Rosenzweig J, Rostalski F, Sicking J, Volmer J, Voosholz J, Voß A, Wrobel S (2019) Vertrauenswürdiger Einsatz von Künstlicher Intelligenz. Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht als Grundlage für eine Zertifizierung von Künstlicher Intelligenz. Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme, Fraunhofer IAIS, Sankt Augustin Cremers AB, Englander A, Gabriel M, Hecker D, Mock M, Poretschkin M, Rosenzweig J, Rostalski F, Sicking J, Volmer J, Voosholz J, Voß A, Wrobel S (2019) Vertrauenswürdiger Einsatz von Künstlicher Intelligenz. Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht als Grundlage für eine Zertifizierung von Künstlicher Intelligenz. Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme, Fraunhofer IAIS, Sankt Augustin
Zurück zum Zitat Dabrock P (2012) Befähigungsgerechtigkeit. Ein Grundkonzept konkreter Ethik in fundamentaltheologischer Perspektive. Gütersloher Verlagshaus, Gütersloh Dabrock P (2012) Befähigungsgerechtigkeit. Ein Grundkonzept konkreter Ethik in fundamentaltheologischer Perspektive. Gütersloher Verlagshaus, Gütersloh
Zurück zum Zitat Dabrock P (2016) Gesundheit/Gesundheitspolitik. In: Hübner J, Eurich J, Honecker M, Jähnichen T, Kulessa M, Renz G (Hrsg) Evangelisches Staatslexikon. Kohlhammer, Stuttgart, S 607–612 Dabrock P (2016) Gesundheit/Gesundheitspolitik. In: Hübner J, Eurich J, Honecker M, Jähnichen T, Kulessa M, Renz G (Hrsg) Evangelisches Staatslexikon. Kohlhammer, Stuttgart, S 607–612
Zurück zum Zitat Daugherty PR, Wilson HJ (2018) Human + machine. Reimagining work in the age of AI. Harvard Business Review Press, Boston Daugherty PR, Wilson HJ (2018) Human + machine. Reimagining work in the age of AI. Harvard Business Review Press, Boston
Zurück zum Zitat Dettling HU, Krüger S (2018) Digitalisierung, Algorithmisierung und Künstliche Intelligenz im Pharmarecht. PharmR 2018:513–517 Dettling HU, Krüger S (2018) Digitalisierung, Algorithmisierung und Künstliche Intelligenz im Pharmarecht. PharmR 2018:513–517
Zurück zum Zitat Deutscher Ethikrat (2023) Mensch und Maschine. Herausforderungen durch Künstliche Intelligenz: Stellungnahme. Deutscher Ethikrat, Berlin Deutscher Ethikrat (2023) Mensch und Maschine. Herausforderungen durch Künstliche Intelligenz: Stellungnahme. Deutscher Ethikrat, Berlin
Zurück zum Zitat Dörner K (2001) Der gute Arzt. Lehrbuch der ärztlichen Grundhaltung. Schriftenreihe der Akademie für Integrierte Medizin. Schattauer, Stuttgart Dörner K (2001) Der gute Arzt. Lehrbuch der ärztlichen Grundhaltung. Schriftenreihe der Akademie für Integrierte Medizin. Schattauer, Stuttgart
Zurück zum Zitat Floridi L (2015) Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Suhrkamp, Berlin (Übers von Walter A) Floridi L (2015) Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Suhrkamp, Berlin (Übers von Walter A)
Zurück zum Zitat Funer F, Liedtke W, Tinnemeyer S, Klausen AD, Schneider D, Zacharias HU, Langanke M, Salloch S (2023) Responsibility and decision-making authority in using clinical decision support systems: an empirical-ethical exploration of German prospective professionals’ preferences and concerns. J Med Ethics. https://doi.org/10.1136/jme-2022-108814CrossRefPubMed Funer F, Liedtke W, Tinnemeyer S, Klausen AD, Schneider D, Zacharias HU, Langanke M, Salloch S (2023) Responsibility and decision-making authority in using clinical decision support systems: an empirical-ethical exploration of German prospective professionals’ preferences and concerns. J Med Ethics. https://​doi.​org/​10.​1136/​jme-2022-108814CrossRefPubMed
Zurück zum Zitat Giddens A (1996) Konsequenzen der Moderne. Suhrkamp, Frankfurt am Main (Übers von Schulte J.) Giddens A (1996) Konsequenzen der Moderne. Suhrkamp, Frankfurt am Main (Übers von Schulte J.)
Zurück zum Zitat Harari JN (2018) 21 Lektionen für das 21. Jahrhundert. C.H. Beck, München (Übers von Wirthensohn A.)CrossRef Harari JN (2018) 21 Lektionen für das 21. Jahrhundert. C.H. Beck, München (Übers von Wirthensohn A.)CrossRef
Zurück zum Zitat Hermann I, Rostalski F, Stock G (2020) Kompetent eigene Entscheidungen treffen? Auch mit Künstlicher Intelligenz! Berlin-Brandenburgische Akademie der Wissenschaften, Berlin Hermann I, Rostalski F, Stock G (2020) Kompetent eigene Entscheidungen treffen? Auch mit Künstlicher Intelligenz! Berlin-Brandenburgische Akademie der Wissenschaften, Berlin
Zurück zum Zitat High-Level Expert Group on Artificial Intelligence (2019) Ethics guidelines for trustworthy AI. European Commission, Brussels High-Level Expert Group on Artificial Intelligence (2019) Ethics guidelines for trustworthy AI. European Commission, Brussels
Zurück zum Zitat Holzinger A, Kieseberg P, Weippl E, Tjoa AM (2018) Current advances, trends and challenges of machine learning and knowledge extraction. From machine learning to explainable AI. Springer, ChamCrossRef Holzinger A, Kieseberg P, Weippl E, Tjoa AM (2018) Current advances, trends and challenges of machine learning and knowledge extraction. From machine learning to explainable AI. Springer, ChamCrossRef
Zurück zum Zitat Jörg J (2018) Digitalisierung in der Medizin. Wie Gesundheits-Apps, Telemedizin, künstliche Intelligenz und Robotik das Gesundheitswesen revolutionieren. Springer, Berlin, HeidelbergCrossRef Jörg J (2018) Digitalisierung in der Medizin. Wie Gesundheits-Apps, Telemedizin, künstliche Intelligenz und Robotik das Gesundheitswesen revolutionieren. Springer, Berlin, HeidelbergCrossRef
Zurück zum Zitat Jorzig A, Sarangi F (2020) Digitalisierung im Gesundheitswesen. Ein kompakter Streifzug durch Recht, Technik und Ethik. Springer, HeidelbergCrossRef Jorzig A, Sarangi F (2020) Digitalisierung im Gesundheitswesen. Ein kompakter Streifzug durch Recht, Technik und Ethik. Springer, HeidelbergCrossRef
Zurück zum Zitat Knappertsbusch I, Gondlach K (Hrsg) (2021) Arbeitswelt und KI 2030. Herausforderungen und Strategien für die Arbeit von morgen. Springer Gabler, Wiesbaden Knappertsbusch I, Gondlach K (Hrsg) (2021) Arbeitswelt und KI 2030. Herausforderungen und Strategien für die Arbeit von morgen. Springer Gabler, Wiesbaden
Zurück zum Zitat Latour B (2005) Reassembling the social. An introduction to Actor-Network-Theory. Oxford University Press, OxfordCrossRef Latour B (2005) Reassembling the social. An introduction to Actor-Network-Theory. Oxford University Press, OxfordCrossRef
Zurück zum Zitat Latour B (2008) Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Suhrkamp, Frankfurt am Main Latour B (2008) Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Suhrkamp, Frankfurt am Main
Zurück zum Zitat Latour B (2010) Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie. Suhrkamp, Frankfurt am Main (Übers von Roßler G) Latour B (2010) Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie. Suhrkamp, Frankfurt am Main (Übers von Roßler G)
Zurück zum Zitat Latour B (2018) Aramis. Oder: Die Liebe zur Technik. Mohr Siebeck, Tübingen (Übers v Roßler G.)CrossRef Latour B (2018) Aramis. Oder: Die Liebe zur Technik. Mohr Siebeck, Tübingen (Übers v Roßler G.)CrossRef
Zurück zum Zitat Luhmann N (2014) Vertrauen. Ein Mechanismus der Reduktion, 5. Aufl. UTB, MünchenCrossRef Luhmann N (2014) Vertrauen. Ein Mechanismus der Reduktion, 5. Aufl. UTB, MünchenCrossRef
Zurück zum Zitat Marcus G, Davis E (2019) Rebooting AI. Building Artificial Intelligence we can trust. Pantheon, New York Marcus G, Davis E (2019) Rebooting AI. Building Artificial Intelligence we can trust. Pantheon, New York
Zurück zum Zitat Mosch L, Back A, Balzer F, Bernd M, Brandt J, Erkens S, Frey N, Ghanaat A, Glauert DL, Göllner S, Hofferbert J, Klopfenstein SAI, Lantwin P, Mah DK, Özden GM, Poncette AS, Rampelt F, Sarica MM, Schmieding M, Schmidt J, Wagnitz J, Wunderlich M (2021) Lernangebote zu Künstlicher Intelligenz in der Medizin. KI-Campus, Berlin Mosch L, Back A, Balzer F, Bernd M, Brandt J, Erkens S, Frey N, Ghanaat A, Glauert DL, Göllner S, Hofferbert J, Klopfenstein SAI, Lantwin P, Mah DK, Özden GM, Poncette AS, Rampelt F, Sarica MM, Schmieding M, Schmidt J, Wagnitz J, Wunderlich M (2021) Lernangebote zu Künstlicher Intelligenz in der Medizin. KI-Campus, Berlin
Zurück zum Zitat Nowotny H (2021) In AI we trust. Power, illusion and control of predictive algorithms. Polity, Cambridge Nowotny H (2021) In AI we trust. Power, illusion and control of predictive algorithms. Polity, Cambridge
Zurück zum Zitat Oevermann U (2002) Professionalisierungsbedürftigkeit und Professionalisiertheit pädagogischen Handelns. In: Kraul M, Marotzki W (Hrsg) Biographie und Profession. Klinkhardt, Bad Heilbrunn, S 19–63 Oevermann U (2002) Professionalisierungsbedürftigkeit und Professionalisiertheit pädagogischen Handelns. In: Kraul M, Marotzki W (Hrsg) Biographie und Profession. Klinkhardt, Bad Heilbrunn, S 19–63
Zurück zum Zitat Ohlbrecht H, Winkler T (2023) Soziologie trifft Medizin. In: Herrmann M (Hrsg) Professionelle Antinomien in hausärztlicher Praxis. Attestierung von Arbeitsunfähigkeit bei psychischen Beschwerden zwischen Patientenorientierung und sozialer Kontrolle. Barbara Budrich, Opladen, S 67–90CrossRef Ohlbrecht H, Winkler T (2023) Soziologie trifft Medizin. In: Herrmann M (Hrsg) Professionelle Antinomien in hausärztlicher Praxis. Attestierung von Arbeitsunfähigkeit bei psychischen Beschwerden zwischen Patientenorientierung und sozialer Kontrolle. Barbara Budrich, Opladen, S 67–90CrossRef
Zurück zum Zitat Pfadenhauer M, Sander T (2010) Professionssoziologie. In: Kneer G, Schroer M (Hrsg) Handbuch Spezielle Soziologien. VS, Wiesbaden, S 361–378CrossRef Pfadenhauer M, Sander T (2010) Professionssoziologie. In: Kneer G, Schroer M (Hrsg) Handbuch Spezielle Soziologien. VS, Wiesbaden, S 361–378CrossRef
Zurück zum Zitat Ratzel R, Lippert HD (2015) § 4 Fortbildung. In: Ratzel R, Lippert HD (Hrsg) Kommentar zur Musterberufsordnung der deutschen Ärzte (MBO). Springer Berlin Heidelberg, Berlin, S 81–86CrossRef Ratzel R, Lippert HD (2015) § 4 Fortbildung. In: Ratzel R, Lippert HD (Hrsg) Kommentar zur Musterberufsordnung der deutschen Ärzte (MBO). Springer Berlin Heidelberg, Berlin, S 81–86CrossRef
Zurück zum Zitat Rifkin J (2011) Das Ende der Arbeit und ihre Zukunft. Neue Konzepte für das 21. Jahrhundert, 3. Aufl. Fischer, Frankfurt am Main Rifkin J (2011) Das Ende der Arbeit und ihre Zukunft. Neue Konzepte für das 21. Jahrhundert, 3. Aufl. Fischer, Frankfurt am Main
Zurück zum Zitat Rothenfluh F, Schulz PJ (2019) Arzt-Patient-Kommunikation. In: Rossmann C, Hastall MR (Hrsg) Handbuch der Gesundheitskommunikation. Kommunikationswissenschaftliche Perspektiven. Springer, Wiesbaden, S 57–67CrossRef Rothenfluh F, Schulz PJ (2019) Arzt-Patient-Kommunikation. In: Rossmann C, Hastall MR (Hrsg) Handbuch der Gesundheitskommunikation. Kommunikationswissenschaftliche Perspektiven. Springer, Wiesbaden, S 57–67CrossRef
Zurück zum Zitat Samhammer D, Beck S, Budde K, Burchardt A, Faber M, Gerndt S, Möller S, Osmanodja B, Roller R, Dabrock P (2023) Klinische Entscheidungsfindung mit Künstlicher Intelligenz. Ein interdisziplinärer Governance-Ansatz. Springer, BerlinCrossRef Samhammer D, Beck S, Budde K, Burchardt A, Faber M, Gerndt S, Möller S, Osmanodja B, Roller R, Dabrock P (2023) Klinische Entscheidungsfindung mit Künstlicher Intelligenz. Ein interdisziplinärer Governance-Ansatz. Springer, BerlinCrossRef
Zurück zum Zitat Sanneman L, Shah JA (2020) A situation awareness-based framework for design and evaluation of Explainable AI. In: Calvaresi D, Najjar A, Winikoff M, Främling K (Hrsg) Explainable, transparent autonomous agents and multi-agent systems. Springer, Cham Sanneman L, Shah JA (2020) A situation awareness-based framework for design and evaluation of Explainable AI. In: Calvaresi D, Najjar A, Winikoff M, Främling K (Hrsg) Explainable, transparent autonomous agents and multi-agent systems. Springer, Cham
Zurück zum Zitat Schäfer P (2020) Empathie und Vertrauen in der Arzt-Patienten-Kommunikation. In: Jacob K, Konerding KP, Liebert WA (Hrsg) Sprache und Empathie. Beiträge zur Grundlegung eines linguistischen Forschungsprogramms. De Gruyter, Berlin, S 377–418CrossRef Schäfer P (2020) Empathie und Vertrauen in der Arzt-Patienten-Kommunikation. In: Jacob K, Konerding KP, Liebert WA (Hrsg) Sprache und Empathie. Beiträge zur Grundlegung eines linguistischen Forschungsprogramms. De Gruyter, Berlin, S 377–418CrossRef
Zurück zum Zitat Schmieder VC (2019) Künstliche Intelligenz als Substitut menschlicher Arbeit. Die Zukunft mittelständischer Verwaltungsprozesse im Kontext der Digitalisierung. Springer, WiesbadenCrossRef Schmieder VC (2019) Künstliche Intelligenz als Substitut menschlicher Arbeit. Die Zukunft mittelständischer Verwaltungsprozesse im Kontext der Digitalisierung. Springer, WiesbadenCrossRef
Zurück zum Zitat Schramme T (2017) Goals of medicine. In: Schramme T, Edwards S (Hrsg) Handbook of the philosophy of medicine. Springer, Dordrecht, S 121–128CrossRef Schramme T (2017) Goals of medicine. In: Schramme T, Edwards S (Hrsg) Handbook of the philosophy of medicine. Springer, Dordrecht, S 121–128CrossRef
Zurück zum Zitat Sonar A, Weber K (2022) Zur Ethik medizinischer KI-Unterstützungssysteme in Theorie und Empirie: Ein qualitativer Vergleich der ethischen (und sozialen) Implikationen aus Literatur- und Expert*innenperspektive. In: Sonar A, Weber K (Hrsg) Künstliche Intelligenz und Gesundheit. Ethische, philosophische und sozialwissenschaftliche Explorationen. Franz Steiner, Stuttgart, S 155–205CrossRef Sonar A, Weber K (2022) Zur Ethik medizinischer KI-Unterstützungssysteme in Theorie und Empirie: Ein qualitativer Vergleich der ethischen (und sozialen) Implikationen aus Literatur- und Expert*innenperspektive. In: Sonar A, Weber K (Hrsg) Künstliche Intelligenz und Gesundheit. Ethische, philosophische und sozialwissenschaftliche Explorationen. Franz Steiner, Stuttgart, S 155–205CrossRef
Zurück zum Zitat Steinrötter B (2020) Datenschutzrechtliche Implikationen beim Einsatz von Pflegerobotern: Frühzeitig eingeholte Einwilligungen als Schlüssel für zulässige Geriatronik-Anwendungen. ZD 7:336–340 Steinrötter B (2020) Datenschutzrechtliche Implikationen beim Einsatz von Pflegerobotern: Frühzeitig eingeholte Einwilligungen als Schlüssel für zulässige Geriatronik-Anwendungen. ZD 7:336–340
Zurück zum Zitat Suzman J (2021) Sie nannten es Arbeit. Eine andere Geschichte der Menschheit. C.H. Beck, München (Übers von Silber KH)CrossRef Suzman J (2021) Sie nannten es Arbeit. Eine andere Geschichte der Menschheit. C.H. Beck, München (Übers von Silber KH)CrossRef
Zurück zum Zitat Topol EJ (2020) Deep Medicine. Künstliche Intelligenz in der Medizin. Wie KI das Gesundheitswesen menschlicher macht. mitp, Frechen (Übers von Lenz G) Topol EJ (2020) Deep Medicine. Künstliche Intelligenz in der Medizin. Wie KI das Gesundheitswesen menschlicher macht. mitp, Frechen (Übers von Lenz G)
Zurück zum Zitat Tretter M (2023) Ambivalenzen gegenwärtiger Gewissheitsbestrebungen. Menschliche Entscheidungsfreiheit in einer gewisserwerdenden Welt. In: Puzio A, Kunkel N, Klinge H (Hrsg) Alexa, wie hast du’s mit der Religion? Interreligiöse Zugänge zu Technik und Künstlicher Intelligenz. wbg, Darmstadt, S 135–156 Tretter M (2023) Ambivalenzen gegenwärtiger Gewissheitsbestrebungen. Menschliche Entscheidungsfreiheit in einer gewisserwerdenden Welt. In: Puzio A, Kunkel N, Klinge H (Hrsg) Alexa, wie hast du’s mit der Religion? Interreligiöse Zugänge zu Technik und Künstlicher Intelligenz. wbg, Darmstadt, S 135–156
Zurück zum Zitat Vogd W, Feißt M, Molzberger K, Ostermann A, Slotta J (Hrsg) (2018) Entscheidungsfindung im Krankenhausmanagement. Zwischen gesellschaftlichem Anspruch, ökonomischen Kalkülen und professionellen Rationalitäten. Springer VS, Wiesbaden Vogd W, Feißt M, Molzberger K, Ostermann A, Slotta J (Hrsg) (2018) Entscheidungsfindung im Krankenhausmanagement. Zwischen gesellschaftlichem Anspruch, ökonomischen Kalkülen und professionellen Rationalitäten. Springer VS, Wiesbaden
Zurück zum Zitat Wachter S, Mittelstadt BD, Russell S (2018) Counterfactual explanations without opening the black box. Automated decisions and the GDPR. Harvard J Law Technol 31(2):841–887 Wachter S, Mittelstadt BD, Russell S (2018) Counterfactual explanations without opening the black box. Automated decisions and the GDPR. Harvard J Law Technol 31(2):841–887
Zurück zum Zitat Waldenfels B (2007) Antwortregister. Suhrkamp, Frankfurt am Main Waldenfels B (2007) Antwortregister. Suhrkamp, Frankfurt am Main
Zurück zum Zitat Yang Y, Fasching PA, Tresp V (2017) Predictive modeling of therapy decisions in metastatic breast cancer with recurrent neural network encoder and multinomial hierarchical regression decoder. IEEE International Conference on Healthcare Informatics (ICHI), 23–26 Aug 2017CrossRef Yang Y, Fasching PA, Tresp V (2017) Predictive modeling of therapy decisions in metastatic breast cancer with recurrent neural network encoder and multinomial hierarchical regression decoder. IEEE International Conference on Healthcare Informatics (ICHI), 23–26 Aug 2017CrossRef
Zurück zum Zitat Zuchowski ML, Zuchowski L (2022) Ethische Aspekte von KI-Anwendungen in der Medizin. In: Pfannstiel MA (Hrsg) Künstliche Intelligenz im Gesundheitswesen. Springer Gabler, Wiesbaden, S 285–310CrossRef Zuchowski ML, Zuchowski L (2022) Ethische Aspekte von KI-Anwendungen in der Medizin. In: Pfannstiel MA (Hrsg) Künstliche Intelligenz im Gesundheitswesen. Springer Gabler, Wiesbaden, S 285–310CrossRef
Metadaten
Titel
Künstliche Intelligenz in der Medizin: Von Entlastungen und neuen Anforderungen im ärztlichen Handeln
verfasst von
Max Tretter
David Samhammer
Prof. Dr. Peter Dabrock
Publikationsdatum
14.11.2023
Verlag
Springer Berlin Heidelberg
Erschienen in
Ethik in der Medizin / Ausgabe 1/2024
Print ISSN: 0935-7335
Elektronische ISSN: 1437-1618
DOI
https://doi.org/10.1007/s00481-023-00789-z

Weitere Artikel der Ausgabe 1/2024

Ethik in der Medizin 1/2024 Zur Ausgabe

Fortgeschrittenes Ovarial-Ca.: Unverdächtige Lymphknoten entfernen?

13.06.2024 ASCO 2024 Kongressbericht

Beim fortgeschrittenen Ovarialkarzinom und klinisch verdächtigen Lymphknoten in der Debulking-Op. ist die abdominale retroperitoneale Lymphadenektomie (RPL) Standard. Ohne verdächtige Lymphknoten ist der Nutzen fraglich.

Wo Künstliche Intelligenz in der Onkologie eingesetzt wird

12.06.2024 ASCO 2024 Kongressbericht

Wie lässt sich mit Künstlicher Intelligenz die Krebsversorgung voranbringen? Drei Beispiele vom ASCO-Kongress zeigen, wo es funktionieren kann: bei der Risikoabschätzung, der Vorhersage des Therapie-Ansprechens und beim telefonischen Kontakt mit Patientinnen und Patienten.

HPV-Impfung schützt auch Männer vor Krebs

12.06.2024 ASCO 2024 Kongressbericht

Die HPV-Impfung wird für Mädchen wie Jungen vorrangig empfohlen, um Zervixkarzinome bei Frauen zu verhindern. Doch auch andere HPV-assoziierte Krebserkrankungen werden reduziert.

PDA: Geringeres Risiko für schwere Geburtskomplikationen der Mutter

11.06.2024 Periduralanästhesie Nachrichten

Über die Vor- und Nachteile einer Periduralanästhesie (PDA) bei der Entbindung wird diskutiert. Einer neuen Studie zufolge geht sie bei manchen Gruppen mit einem deutlich reduzierten Risiko für schwere mütterliche Morbidität einher.

Update Gynäkologie

Bestellen Sie unseren Fach-Newsletter und bleiben Sie gut informiert – ganz bequem per eMail.