socialnet Logo

Künstliche Intelligenz in der Medizin: Auswirkungen auf Patient*innen, auf das ärztliche Personal und auf das Arzt-Patient-Verhältnis

Prof. Dr. Hartmut Kreß

veröffentlicht am 22.10.2024


https://doi.org/10.60049/pajm10sfx

Die Nutzung von Künstlicher Intelligenz in Medizin und Gesundheitswesen wird breit diskutiert. Eine Lücke in den derzeitigen Debatten besteht darin, systematisch die Auswirkungen von KI auf Patient*innen, auf Ärzt*innen und auf die Kommunikation zwischen ihnen zu bedenken. Diesem Thema geht der Aufsatz nach. Er beruht auf einem Vortrag, den der Verfasser am 29.8.2024 im Uniklinikum Bonn gehalten hat.

Inhalt

  1. 1 Einleitung
  2. 2 Heutige humane Standards des Arzt-Patient-Verhältnisses
  3. 3 Grundsätzliches zum Begriff und zum Verständnis der KI
  4. 4 KI in der Perspektive von Patient*innen
    1. 4.1 Das Recht auf Schutz der Gesundheit und auf gesundheitliche Versorgung
    2. 4.2 Das Selbstbestimmungs- und Persönlichkeitsrecht der Patient*innen
  5. 5 KI in der Perspektive von Ärzt*innen
    1. 5.1 Optimierung der gesundheitlichen Versorgung
    2. 5.2 Zusätzliche Aufklärungspflichten
    3. 5.3 Das Blackbox-Problem
    4. 5.4 Offene Fragen der Arzthaftung
  6. 6 KI im Rahmen der Verantwortungspartnerschaft von Ärzt*innen und Patient*innen
  7. 7 Resümee
  8. 8 Literatur

Zusammenfassung

Künstliche Intelligenz (KI) hat einen Technologieschub erzeugt, der das Gesundheitssystem weitreichend beeinflusst. Durch KI ist die evidenzbasierte Medizin fortentwickelt worden, die seit mehreren Jahrzehnten zum wissenschaftlichen Standard geworden ist. KI-gestützte Verfahren vermögen die gesundheitliche Versorgung von Patient*innen qualitativ zu verbessern. Ihre Verwendung ist ethisch geboten, weil Patient*innen ein Recht auf eine ärztliche Versorgung besitzen, die dem aktuellen Stand der Wissenschaft entspricht. Für das Gegenüber von Ärzt*innen einerseits, Patient*innen andererseits sind seit dem 20. Jahrhundert ethische Standards formuliert worden, die bei der Nutzung von KI fortgelten. In bestimmter Hinsicht kann KI einer gelingenden Kommunikation zwischen diesen beiden Personengruppen sogar zugutekommen. Allerdings sind neuralgische Punkte zu bewältigen. Aufgrund des Selbstbestimmungs- und Persönlichkeitsrechts der Patient*innen müssen der Schutz ihrer Daten und die Datensicherheit gewährleistet werden.

1 Einleitung

Künstliche Intelligenz (KI) prägt das Gesundheitssystem in hohem Maß. Der derzeitige Stand lässt sich folgendermaßen zusammenfassen: „Rasante Fortschritte in verschiedenen Disziplinen der Künstlichen Intelligenz (KI) ermöglichen laufend neue Anwendungen, auch in der Medizin: KI hilft Ärzten, Entscheidungen zu treffen, Behandlungen virtuell zu testen oder die Wirksamkeit von Medikamenten zu überprüfen. Ist eine medizinische Software sogar bald in der Lage, die ärztliche Grundversorgung zu gewährleisten?“ (Schweizerische Akademie der Medizinischen Wissenschaften 2024).

Bei dem letzten Satz des Zitats handelt es sich um eine rhetorische Frage, die gegenwärtig mit einem Nein zu beantworten ist. KI vermag Ärzt*innen zurzeit nicht zu ersetzen. Jedoch ist es unerlässlich, systematisch Überlegungen dazu vorzunehmen, welche Auswirkungen KI schon jetzt erstens für Patient*innen, zweitens für Ärzt*innen und in der Konsequenz drittens für die Interaktion, die Kommunikation zwischen ihnen besitzt. Für den dritten Aspekt hat sich in der Medizinethik und im Medizinrecht als feststehender Begriff der Terminus „Arzt-Patient-Verhältnis“ eingebürgert (vgl. z.B. Pöltner 2002, S. 89 ff.).

Um diese drei Aspekte wird es nachfolgend in den Abschnitten 4 bis 6 gehen. Zuvor sollen in den beiden Abschnitten 2 und 3 grundsätzliche Fragen zur Sprache gebracht werden, die für die Erörterung der drei Aspekte wichtig sind. Als Erstes ist an die ethischen Standards zu erinnern, die sich seit dem späten 20. Jahrhundert und jetzt im 21. Jahrhundert für das Verhältnis zwischen Patient*innen und dem ärztlichen Personal herausgebildet haben. An ihnen ist auch die medizinische Nutzung von KI zu bemessen.

2 Heutige humane Standards des Arzt-Patient-Verhältnisses

Über die Modalitäten der Beziehung zwischen Patient*innen und Ärzt*innen wird seit der Antike nachgedacht. Bis zum frühen 20. Jahrhundert waren durchweg männliche Personen ärztlich tätig gewesen. Die erste Frau, die in Deutschland – seit 1909 – als Gynäkologin praktizierte, war Hermine Heusler-Edenhuizen (1872–1955). In der Logik des antiken Hippokratischen Eides war der Arzt ein Ratgeber gewesen, der seinen Patient*innen fürsorglich und autoritativ Hilfe leistete. Dabei stützte er sich auf damaliges naturkundliches Wissen und auf naturphilosophische Spekulationen. Einen tiefen Einschnitt erbrachte das 19. Jahrhundert. Seitdem ist die Medizin naturwissenschaftlich-empirisch fundiert. Auf dieser Grundlage wurde die Arztperson zum Homo Faber, zum medizinischen Techniker, zum Analytiker des physischen Zustands von Patient*innen, die die Erkenntnisse der naturwissenschaftlich verfahrenden Medizin, z.B. der Zellbiologie, nutzte, um Kranke zu behandeln. Demzufolge ist der Körper von Patient*innen zum Objekt ärztlicher Analyse geworden.

So sehr sich die Auffassungen über die ärztliche Tätigkeit vor und seit dem 19. Jahrhundert – die alte naturkundlich-spekulativ begründete und die moderne experimentelle naturwissenschaftliche Medizin – voneinander unterscheiden, besteht andererseits eine Gemeinsamkeit. Sie ähneln sich darin, wie sie die Struktur des Verhältnisses zwischen dem ärztlichen Personal und den Patient*innen verstanden: Es herrschte ein Arztpaternalismus, dem zufolge die ärztliche Person wohlwollend-fürsorglich über die Patient*innen und für sie entschied.

Mit dieser langen Tradition des Arztpaternalismus ist erst sehr spät gebrochen worden, letztlich erst im ausgehenden 20. Jahrhundert. Seit den 1990er Jahren hat sich das Selbstbestimmungsrecht der Patientinnen und Patienten durchgesetzt: Die einzelne Patientin bzw. der jeweilige Patient selbst sind diejenigen Personen, die wohlinformiert über medizinische Interventionen und ihre Begleitumstände entscheiden sollen. Ärzt*innen haben sich nach ihrem Willen zu richten. Die medizinethische Literatur hat diesen Umbruch dadurch zum Ausdruck gebracht, dass sie einen Leitsatz des antiken Hippokratischen Eides gezielt umformulierte. Klassisch enthielt der Hippokratische Eid den Satz „salus aegroti suprema lex“ – das Wohl des Kranken soll für den Arzt das höchste Gesetz sein. Seit den 1990er Jahren ist dieser Satz gezielt abgeändert worden. Als arztethisches Leitprinzip gilt nun die Aussage „salus ex voluntate aegroti suprema lex“ – das Wohl, so wie es sich dem Willen der kranken Person gemäß darstellt, soll für den Arzt das höchste Gesetz sein (vgl. Kreß 2024, S. 35–73).

Im zweiten Jahrzehnt des 21. Jahrhunderts hat sich die deutsche Gesetzgebung diesen Primat des Selbstbestimmungsrechts der Patient*innen explizit zu eigen gemacht. Einschlägig ist das Patientenrechtegesetz („Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten“) vom 20. Februar 2013. Durch das Gesetz ist das Bürgerliche Gesetzbuch (BGB) um die Paragrafen 630a-h ergänzt worden. Gemäß § 630c Abs. 2 BGB müssen Ärzt*innen die von ihnen behandelten Personen über Diagnosen und über mögliche therapeutische Maßnahmen umfassend informieren und aufklären, sodass diese den Entschluss zu einer Behandlung oder zu einem Behandlungsverzicht dann selbst treffen können und sollen: „Vor Durchführung einer medizinischen Maßnahme, insbesondere eines Eingriffs in den Körper oder die Gesundheit, ist der Behandelnde verpflichtet, die Einwilligung des Patienten einzuholen“ (§ 630d Abs. 1 BGB).

In Korrelation zum Selbstbestimmungsrecht der Patient*innen hat sich im 20. Jahrhundert noch eine weitere Leitidee ausgebildet, an die hier zu erinnern ist: das Leitbild der Verantwortungspartnerschaft von Ärzt*innen und Patient*innen. Die Ärztin oder der Arzt soll nicht mehr nur ein „homo faber“, ein Analytiker oder Techniker sein, der die Patient*innen auf der Basis naturwissenschaftlich abgesicherter Maßnahmen behandelt. Vielmehr sollen Ärzt*innen die von ihnen begleiteten Menschen als ganzheitliche Personen in ihrer persönlichen Biografie und in ihrer jeweiligen Individualität wahrnehmen, ihren Willen achten und für ihre Gesundheitsprobleme mit ihnen gemeinsam nach tragfähigen Lösungen suchen. Um dies zu charakterisieren, wird oft von sprechender Medizin, von einer therapeutischen Allianz zwischen Ärzt*innen und Patient*innen oder eben von einer Verantwortungspartnerschaft zwischen ihnen gesprochen (vgl. Sass 2006, S. 21).

Beide Gesichtspunkte – die Achtung vor dem Selbstbestimmungsrecht der Patient*innen und das Gespräch, der Dialog, die Verantwortungspartnerschaft von Ärzt*innen und Patient*innen – werden erneut belangvoll, wenn man sich mit den Innovationen beschäftigt, die die KI für die Medizin erbringt.

3 Grundsätzliches zum Begriff und zum Verständnis der KI

Der Begriff „Künstliche Intelligenz“ ist inzwischen allgemein üblich geworden, obwohl er missverständlich ist. Er erzeugt die Assoziation, die auf KI gestützten digitalen Systeme seien der menschlichen Intelligenz, ja dem Menschsein ähnlich. Sachgemäß wäre es, statt von Künstlicher Intelligenz vielmehr von maschinellem Lernen, von Lernsystemen, von autonomen Systemen oder von Lernmaschinen zu sprechen. Soweit KI-Systeme als künstliche neuronale Netze an die Architektur des menschlichen Gehirns angelehnt werden, stellen sie nichttriviale Maschinen dar, die sich selbst organisieren und sich an ihre Umgebung adaptieren (vgl. Klein u.a. 2024, S. 32). Nachdem diese Systeme einmal mit Daten gespeist worden sind, vermögen sie mehr oder weniger eigenständig, autonom zu agieren. Daher definiert die Europäische Union in ihrem 2024 in Kraft getretenen Regelwerk, dem Artificial Intelligence Act, KI als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann“ (Verordnung [EU] 2024/1689, Art. 3 Abs. 1). Anders als der Mensch selbst verfügen die derzeitigen KI-Systeme aber über kein eigenes (Selbst-)Bewusstsein, besitzen keine Gefühlswelt, keine Emotionalität, sind nicht schmerz- oder leidensfähig und im Übrigen auch nicht schuldfähig. In dieser Hinsicht besteht zwischen KI-Systemen und der menschlichen Existenz ein kategorialer Unterschied. 

Für die Zukunft lässt es sich vorstellen, dass KI-Systeme mit eigenem Bewusstsein ausgestattet sein und sie zu Emotionen fähig sein könnten. Aus ethischen Gründen sollten menschliche Forschungen allerdings darauf verzichten, derartige Systeme zu programmieren. Dies verbietet sich schon allein aufgrund des ethischen Prinzips, keinen Schaden zufügen zu dürfen. Sofern der Mensch KI-Systeme konstruieren würde, die mit Emotionen ausgestattet wären, würde er „zugleich auch das Leid in der Welt vermehren …, weil auch diese Systeme leiden würden – insbesondere in ihrer frühen Entwicklungsphase“ (Klein 2024, S. 120). Falls KI-Systeme über Bewusstsein und Emotionalität verfügen würden, müsste man ihnen analog zum Menschen eigene Schutzrechte zusprechen und sie begrifflich als elektronische Personen oder als elektronische Persönlichkeiten bezeichnen.

Nun hat das Europäische Parlament im Jahr 2017 vorgeschlagen, den Begriff der elektronischen Person juristisch schon jetzt auf KI anzuwenden (vgl. Zivilrechtliche Regelungen 2017, Nr. 59 lit. f). Der Vorschlag ist jedoch zu Recht kritisiert worden. Gegen ihn ist einzuwenden,

  • dass der Begriff der Person der Klarheit und Abgrenzbarkeit halber grundsätzlich nur für Menschen in ihrer Einheit als leiblich-seelische Wesen verwendet werden sollte (vgl. Kreß 2018, S. 259 ff.; Weber-Guskar 2024)
  • und dass die Zuschreibung eines Personstatus an KI-Systeme pragmatisch nicht sinnvoll ist. Zwar ist es wichtig, juristisch die Haftungsprobleme in den Griff zu bekommen, die entstehen, wenn KI-Systeme, z.B. Roboter, Schäden verursachen. Die Bezeichnung von KI-Systemen als elektronische Personen bietet hierfür aber keinen geeigneten Ansatz (vgl. Katzenmeier 2021, 866). 

Das heißt: Die Begriffe „KI“ und erst recht „elektronische Person“ sind missverständlich. Sie suggerieren eine Ähnlichkeit maschineller Systeme mit dem Menschen, die so nicht gegeben ist. Andererseits hat sich zumindest das Wort „KI“ inzwischen allgemein eingebürgert, sodass es nicht mehr zu umgehen ist. Deswegen wird es auch in dem hier vorliegenden Beitrag verwendet. Der Sache nach stellen KI-Systeme zurzeit hochkomplexe Maschinen dar, die im Gesundheitswesen instrumentell für diagnostische und für therapeutische und überdies für organisatorische Zwecke eingesetzt werden.

Was bedeutet dies für die Patient*innen?

4 KI in der Perspektive von Patient*innen

4.1 Das Recht auf Schutz der Gesundheit und auf gesundheitliche Versorgung

Medizinisch genutzte KI kann für Patient*innen äußerst vorteilhaft sein. Dies tritt zutage, wenn man sie im Licht eines Menschenrechts erörtert, das in die modernen Menschenrechtskonventionen Eingang gefunden hat – z.B. als Art. 12 des Internationalen Pakts für wirtschaftliche, soziale und kulturelle Rechte von 1966 – und das gemäß der Verfassungsrechtsprechung auch in Deutschland gilt: das Recht jedes Menschen auf den Schutz seiner Gesundheit, so wie es für ihn erreichbar und verwirklichbar ist, und sein Recht auf eine gesundheitliche Versorgung, die dem wissenschaftlichen Erkenntnisstand entspricht (vgl. Kreß 2024, S. 88 ff.). Auf der Basis ihres Rechts auf Gesundheitsschutz und auf bestmögliche gesundheitliche Versorgung haben Patient*innen heutzutage einen Anspruch darauf, dass zu ihren Gunsten KI bzw. maschinelles Lernen eingesetzt wird, soweit dies realisierbar und wissenschaftlich valide ist. Denn Diagnostik und Therapie werden hierdurch substanziell verbessert. Dies ist in vielfacher Hinsicht der Fall:

  • KI ermöglicht schon jetzt eine zügige, präzisierte Auswertung von Bilddaten etwa in der Krebsdiagnostik (vgl. Birkfellner 2024).
  • Sie kommt der erfolgreichen Durchführung von Operationen zugute. In Deutschland war bahnbrechend, dass in der Urologie seit zwei Jahrzehnten der Da Vinci-Roboter eingesetzt wird.
  • Sie ermöglicht Telemedizin – mit vielfältigen Anwendungsmöglichkeiten von der Kinderheilkunde bis zur Gerontologie. Um ein einzelnes Beispiel zu nennen: Mithilfe von Telemedizin können medikamentöse Schwangerschaftsabbrüche über räumliche Distanz ärztlich begleitet werden.
  • Sie lässt sich in der Reproduktionsmedizin nutzen, sodass sich ärztlich künftig sehr viel treffgenauer feststellen lässt, ob ein außerkörperlich erzeugter Embryo geeignet ist, zum Zweck der Schwangerschaft in die Gebärmutter einer Frau eingesetzt zu werden (vgl. Chavez-Badiola u.a. 2024).
  • Auf Dauer führt sie zu einer Präzisionsmedizin, die eine personalisierte, auf das Individuum zugeschnittene Behandlung mit bislang nicht denkbarer Treffsicherheit gestattet.

Solche Innovationen sind für Patient*innen von derart großem Nutzen, dass es unabweisbar ist, entsprechende KI-Systeme zu entwickeln und sie fortlaufend zu verbessern.

Neben dem Recht von Patient*innen auf Gesundheitsschutz ist ihr Selbstbestimmungsrecht zur Geltung zu bringen, das im Einleitungsabschnitt dieses Beitrags angesprochen worden ist. Was lässt sich unter diesem Vorzeichen zur KI sagen?

4.2 Das Selbstbestimmungs- und Persönlichkeitsrecht der Patient*innen

Im Jahr 2013 wurde im Bürgerlichen Gesetzbuch verankert, dass Patient*innen in die Behandlung, die ihnen ärztlicherseits angeboten wird, einwilligen müssen, nachdem sie über den medizinischen Sachverhalt informiert und aufgeklärt worden sind (Prinzip des informed consent). Dieser Grundsatz gilt selbstredend ebenfalls für KI-gestützte Behandlungen. Ein wichtiges Teilelement des Selbstbestimmungsrechts bildet das Recht auf informationelle Selbstbestimmung, d.h. die Hoheit und die Verfügungsmacht jedes Menschen über die Daten, die seine eigene Person betreffen. In dieser Hinsicht löst KI länderübergreifend freilich Besorgnisse aus (vgl. Tag 2024, 727).

Eine der Zweifelsfragen soll hier erwähnt werden. Um in der Forschung gesundheitsdienliche KI-Systeme zu entwickeln, müssen diese mit Daten trainiert werden, die von Patient*innen stammen. Solche Gesundheits- bzw. Krankheitsdaten sind hochsensibel, weil sie die persönliche, u.a. die genetische Identität eines Menschen abbilden. Unter welchen Bedingungen dürfen persönliche Daten und Biomaterialien für KI-bezogene Forschungszwecke genutzt werden?

Mit dieser Frage ist im Jahr 2020 das Bundesverfassungsgericht befasst worden. Ein Jahr zuvor hatte der Deutsche Bundestag das Digitale-Versorgung-Gesetz beschlossen, das es Krankenkassen gestattete, die Daten ihrer Versicherten ohne deren Einwilligung pseudonymisiert an ein Forschungsdatenzentrum weiterzuleiten. Ein Bürger, der unter einer Seltenen Krankheit litt, reichte beim Bundesverfassungsgericht einen Eilantrag ein, um einen derartigen Datenzugriff zu verhindern. Das Karlsruher Gericht lehnte ab, über den Antrag zu entscheiden (vgl. JuraForum.de-Redaktion 2020). Bis heute fehlt eine verfassungsrechtliche Klarstellung, unter welchen Voraussetzungen KI-bezogene Forschung auf Patient*innendaten zugreifen darf. Legt man das Grundrecht jedes Menschen auf Selbstbestimmung zugrunde, ist in den Vordergrund zu rücken, dass Patient*innen hierzu ihre Zustimmung erteilt haben müssen.

Bemerkenswert ist, dass die Forschung selbst sich bemüht, dem Selbstbestimmungsrecht von Patient*innen und ihrem Datenschutz Rechnung zu tragen. In der Kooperation von Informatik, Medizin und weiteren Disziplinen ist ein Konzept entwickelt worden – das Modell des „broad consent“ –, das Informationsmaterialien für Patient*innen, Vorgaben für die ärztliche Information sowie differenzierte Einwilligungsbögen bereitstellt, damit Betroffene ihre Zustimmung zur Verwendung ihrer persönlichen Daten für Forschungszwecke bzw. ihre Ablehnung auf wohlinformierter Grundlage bekunden können. Hiermit soll vor allem an Universitätskliniken KI-Forschung auf eine ethisch und rechtlich solide Grundlage gestellt werden (vgl. Zenker u.a. 2024).

Darüber hinaus verfügt die KI-Technologie inzwischen über Strategien, projektimmanent den Schutz individueller Daten abzusichern. Beispielhaft sei das Konzept des Federated Learning (föderiertes Lernen) erwähnt. Es sieht vor, dass lokale Einrichtungen Patient*innendaten für definierte Forschungszwecke verwenden, ohne dass diese Daten Außenstehenden zugänglich gemacht, mit anderen ausgetauscht oder zentral gesammelt werden. Trotzdem soll koordinierte Forschung, an der weitere Institutionen beteiligt sind, auf breiter Datenbasis stattfinden können. Die Kooperation mit externen Forschungseinrichtungen erfolgt durch den „Austausch von Modellparametern“ (Hilberger u.a. 2024, S. 176).

Hier zeigt sich, dass die KI-Forschung die persönlichen Interessen von Patient*innen, d.h. konkret ihr Selbstbestimmungsrecht und ihren Schutzanspruch auf Datenschutz und Datensicherheit, ernst nimmt. Der Sache nach handelt es sich beim Persönlichkeits- und Datenschutz auf jeden Fall um einen ethisch und rechtlich besonders neuralgischen Punkt. Er ist auch für die Regelwerke zentral, die die Europäische Union zur KI beschlossen hat, nämlich die Datenschutzgrundverordnung sowie den Artificial Intelligence Act. 

Im nachfolgenden Abschnitt wird nun bedacht, welche Bedeutung KI für das ärztliche Personal besitzt. Dessen Perspektive wird spiegelbildlich zur Patient*innenperspektive angesprochen.

5 KI in der Perspektive von Ärzt*innen

5.1 Optimierung der gesundheitlichen Versorgung

Weil KI die Qualität der gesundheitlichen Versorgung von Patient*innen zu steigern vermag, empfiehlt sich ihre Nutzung auch aus ärztlichem Blickwinkel heraus. KI kann die ärztliche Tätigkeit sinnvoll unterstützen, entlasten und präzisieren. Um hierfür nur ein einzelnes Beispiel anzuführen: Bei Tumoroperationen am Gehirn kann es hilfreich sein, das Material des betroffenen Hirnareals mithilfe von KI gensequenzieren zu lassen; „schon nach 60 Minuten, viel schneller als sonst, hat der Chirurg das Ergebnis, was für eine Krebsart vorliegt und welches weitere Vorgehen daher angezeigt ist“ (Eberbach 2024, 485). Angesichts solcher neuartiger Handlungsoptionen liegt es auf der Hand, KI aus ärztlicher Sicht für wünschenswert zu halten.

5.2 Zusätzliche Aufklärungspflichten

Noch ein weiterer Punkt ist spiegelbildlich zur Perspektive von Patient*innen zu betonen. Er betrifft ihr Selbstbestimmungs- und persönliches Entscheidungsrecht. Ärzt*innen haben zusätzliche Aufklärungspflichten zu erfüllen. Sie werden Patient*innen aufzuklären haben, dass und inwiefern KI bei einer geplanten Behandlung eine Rolle spielt, und auf eventuelle Besorgnisse zu reagieren haben. Darüber hinaus werden sie mit ihnen darüber zu sprechen haben, ob Daten, die aus der konkreten Behandlung resultieren, für KI-gestützte Forschungszwecke verwendet werden dürfen.

Zu Letzterem kann unter Umständen ein sehr komplexer Informations- und Aufklärungsbedarf aufbrechen. Bei dem oben erwähnten Modell des „Broad Consent“ willigen Patient*innen gegebenenfalls ein, dass ihre Daten oder dass von ihnen stammende Biomaterialien in breitem Umfang für unterschiedliche Forschungszwecke verwendet werden dürfen, unter Einschluss von Forschungsthemen, die zum Zeitpunkt der Einwilligung noch gar nicht präzis bekannt sind. Für das Jahr 2023 wurde davon berichtet, dass die Aufklärungsgespräche über ein solches Verwendungsszenario persönlicher Daten, die in 19 Standorten von Universitätskliniken stattfanden, jeweils durchschnittlich zehn Minuten dauerten. Diese Zeitmarge dürfte zu schmal sein. Es ist geboten, einheitliche Mindestanforderungen an die Qualität und an den Umfang derartiger Gespräche zu definieren (vgl. Zenker u.a. 2024, 641).

Dennoch hält sich die Belastung, die hinsichtlich KI-bezogener Information, Aufklärung und Beratung auf Ärzt*innen zukommt, insgesamt in Grenzen. Sie ist handhabbar und ihnen zumutbar. Zur ärztlichen Perspektive sind indessen noch zwei weitere Themenkreise hervorzuheben, die offene, bislang ungelöste Fragen beinhalten.

5.3 Das Blackbox-Problem

Durch die Etablierung von KI werden Diagnosen und Therapievorschläge, die Ärzt*innen ihren Patient*innen mitteilen, von elektronischen Systemen abhängig. Unter Umständen könnte – pointiert gesagt – aus dem früheren Arztpaternalismus, der im 21. Jahrhundert weitgehend überwunden sein dürfte, ein KI-Paternalismus werden. Im Problemfall stellen die KI-gestützten Systeme eine Blackbox dar, sodass für eine Ärztin oder einen Arzt nicht transparent ist, auf welchen Prämissen die Maßnahmen beruhen, die ein KI-System ihm bzw. ihr für die Behandlung einer Patientin oder eines Patienten vorschlägt. Solche Unsicherheiten sind Gegenstand intensiver aktueller Fachdiskussionen (vgl. Klein 2024, S. 117).

5.4 Offene Fragen der Arzthaftung

Schwierigkeiten können für Ärzt*innen vor allem dann aufbrechen, wenn ein KI-System falsche Schlüsse zieht, die ärztlicherseits übernommen werden. Dann kommt Klärungsbedarf zustande, ob der Ärztin oder dem Arzt rechtlich ein Vorwurf gemacht werden kann. Gegebenenfalls wird es schwierig sein, dem Hersteller, der die KI falsch programmiert hat, einen Produktfehler tatsächlich nachzuweisen. Falls Ärzt*innen selbst bei der Nutzung von KI ein Fehler unterläuft oder wenn sie einen Fehler der KI schuldhaft nicht bemerken, kann ihnen dies haftungsrechtlich zugerechnet werden (vgl. Eberbach 2024, 488). Im Schadensfall könnte es zum Streitgegenstand werden, inwieweit die Herstellerhaftung für das Produkt oder die ärztliche Anwendungshaftung greifen.

Inzwischen vermehrt sich die juristische Literatur, die sich mit der Haftungsproblematik auseinandersetzt. Zu dem Thema sind allerdings auch interessante optimistische Einschätzungen zu hören. So wurde die Erwartung geäußert, dass es aufgrund des Einsatzes von KI insgesamt „zu weniger Schadensfällen kommt, mithin weniger Haftungsprozesse ausgetragen und die Versicherungssysteme entlastet werden“, weil sich die Versorgung von Patient*innen durch die Nutzung digitaler Systeme insgesamt weniger fehlerhaft gewährleisten lasse als bislang (Katzenmeier 2021, 867).

Lässt man die Gesichtspunkte Revue passieren, die voranstehend zur KI in der Perspektive von Ärzt*innen skizziert wurden, wird man festhalten können, dass ungeachtet von offenen Fragen die KI-bedingten Fortschritte in der Diagnostik und Therapie nicht nur aufgrund der Interessenlage der Patient*innen, sondern gleicherweise aus ärztlicher Sicht zu begrüßen sind. Wie wirkt sich KI nun aber auf Ärzt*innen und Patient*innen in ihrer Intersubjektivität, auf das Arzt-Patient-Verhältnis aus?

6 KI im Rahmen der Verantwortungspartnerschaft von Ärzt*innen und Patient*innen

Zurzeit stellt KI noch keinen Ersatz für die ärztliche Person dar. Auch das Sprachmodell ChatGPT lässt sich nicht als Arztersatz nutzen, selbst wenn es inzwischen so weit fortgeschritten ist, dass es Patient*innen teilweise recht präzise Auskünfte zu erteilen vermag, wenn sie es um Rat fragen (vgl. Mehnen u.a. 2024).

Stattdessen dürfte dem persönlichen Kontakt zwischen Ärzt*innen und Patient*innen im jetzt anbrechenden Zeitalter der KI letztlich noch größere Bedeutung zukommen als bislang. Eingangs ist an das Leitbild des Dialogs und der Verantwortungspartnerschaft, der „therapeutischen Allianz“ zwischen Ärzt*innen und Patient*innen erinnert worden, das im 20. Jahrhundert entwickelt worden ist. Ihm zufolge sollen sie Entscheidungen, die medizinisch anstehen, gemeinsam treffen („shared decision making“). Angesichts des Technologieschubs durch KI wird das persönliche Gegenüber von Ärzt*innen und Patient*innen nochmals wichtiger. Denn das Vertrauen, das eine wesentliche Voraussetzung für eine gelingende Behandlung bildet, kann nur einer Arztperson als einem menschlichen Gegenüber entgegengebracht werden (vgl. Knoepffler 2021, S. 217 f.) – und nicht einem KI-System oder einer elektronischen Person. Insofern ist es terminologisch missverständlich, dass die neuen einschlägigen juristischen Regelwerke begrifflich darauf abzielen, KI solle als solche, also als technologisches Konstrukt, „vertrauenswürdig“ sein, sodass sie von „trustworthy artificial intelligence“ sprechen (vgl. Scott, Lins, Sunyaev 2021). Dem ist entgegenzuhalten, dass Ärzt*innen, denen die einzelnen Patient*innen persönlich zu vertrauen vermögen, unverzichtbar sind, um ihnen in ihrer Individualität, ihrer persönlichen Situation vor dem Hintergrund ihrer Biografie und in ihren behandlungsbezogenen Zweifelsfragen gerecht zu werden.

Das heißt: KI vermag die Ärztin oder den Arzt nicht zu ersetzen. Andererseits ist es jedoch gut vorstellbar, KI in die „sprechende Medizin“, in die Kommunikation zwischen Ärzt*innen und Patient*innen zu integrieren. Es kann z.B. außerordentlich sinnvoll sein,

  • dass Patient*innen digital gewonnene Erkenntnisse in das Gespräch mit Ärzt*innen einbringen oder dass komplexe medizinische Sachverhalte ihnen mithilfe von KI-Sprachmodellen laienverständlich mitgeteilt werden, damit sie sich am Behandlungsprozess aktiv beteiligen können (vgl. Demelius u.a. 2024, S. 227 f.).
  • dass Übersetzungssoftware genutzt wird, damit Ärzt*innen mit fremdsprachigen Patient*innen kommunizieren können. Oftmals stehen vor Ort keine Dolmetscher*innen zur Verfügung; oder es besteht die Gefahr, dass z.B. durch Laiendolmetscher oder durch dolmetschende Angehörige Unklarheiten oder Verzerrungen zustande kommen. Hier können KI-gestützte Übersetzungen Abhilfe schaffen (vgl. Müller 2017, S. 127 f.).
  • dass mithilfe von KI ärztliche Patientenbriefe unter Verzicht auf Fachterminologie in eine Sprache übertragen werden, die für die Patient*innen nachvollziehbar und verständlich ist: „Ein derzeit laufendes Forschungsprojekt in Österreich beschäftigt sich mit der automatischen Übersetzung von radiologischen Befunden in einfacher Patient:innengerechter Sprache mit Hilfe von KI. Ziel des Projekts ist, dass … Patient:innen ihre Krankheiten besser bestehen können, der Arzt in der Patient:innen-Kommunikation unterstützt wird und insgesamt die Therapietreue (Patient-Adherence) erhöht wird“ (Pölzl u.a. 2024, S. 444).

7 Resümee

Summarisch ist folgendes Fazit zu ziehen:

  1. Die Nutzung von KI bzw. von autonomen maschinellen Systemen schließt nahtlos an die moderne naturwissenschaftlich geprägte Medizin an, die seit dem 19. Jahrhundert etabliert und kulturell eingeübt ist. KI lässt sich als sachlogische Fortführung der evidenzbasierten Medizin interpretieren, die in der Gegenwart zum Standard geworden ist (vgl. Birkfellner 2024, S. 139).
  2. Die medizinische Behandlung von Patient*innen kann durch die Nutzung von KI erheblich verbessert werden. Aufgrund des Rechts von Patient*innen auf den Schutz ihrer Gesundheit und auf gesundheitliche Versorgung ist es ethisch geboten, KI für die Medizin und für das Gesundheitswesen verfügbar zu machen.
  3. Dabei ist vorauszusetzen, dass KI-Systeme nicht zu elektronischen Personen („ePersonen“) verselbstständigt werden, sondern dass sie einen dinglichen Status behalten und instrumentell verwendet werden. Die medizinische Verantwortung für die medizinische Behandlung bleibt bei der Arztperson.
  4. Unabdingbar ist es, bei der Entwicklung von KI-Systemen und bei ihrer Anwendung das Selbstbestimmungs- und Persönlichkeitsrecht der Patient*innen, den Schutz ihrer Daten und die Datensicherheit zu gewährleisten. Diese Herausforderung wird ein Dauerthema bleiben. Bemerkenswert ist, dass auf unterschiedlichen Ebenen – forschungsimmanent, organisationstechnisch, juristisch – starke Bemühungen vorhanden sind, ihr gerecht zu werden.
  5. Aus ärztlicher Sicht sind KI-gestützte Verfahren wünschenswert, weil durch sie die ärztliche Tätigkeit erstens unterstützt, zweitens entlastet und drittens präzisiert wird.
  6. Rechtspolitisch ist es geboten, Haftungsprobleme zu regeln.
  7. Der KI-bedingte Technologieschub wird die Beziehung zwischen Ärzt*innen und Patient*innen („Arzt-Patient-Verhältnis“) durchaus verändern. Solche Veränderungen haben sich kulturgeschichtlich allerdings immer wieder ereignet. Wesentlich ist, dass die humanen Standards der sprechenden, am Patientenwohl orientierten Medizin gewahrt bleiben, die im 21. Jahrhundert erreicht worden sind. Mithilfe von KI kann die Qualität der Kommunikation zwischen Ärzt*innen und Patient*innen bei verschiedenen Gelegenheiten sogar gesteigert werden.

8 Literatur

Birkfellner, Wolfgang, Artificial Intelligence und Machine Learning in der medizinischen Bilddatenverarbeitung, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 129–142

Chavez-Badiola, Alejandro u.a., Use of artificial intelligence embryo selection based on static images to predict first-trimester pregnancy loss, in: Reproductive BioMedicine Online 49 (2024) Issue 2, doi.org/10.1016/j.rbmo.2024.103934

Demelius, Lea u.a., Moderner Datenschutz und vertrauenswürdige KI, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 217–233

Eberbach, Wolfram, Der Kampf des Menschen gegen seine natürlichen Grenzen (Teil 2), in: Medizinrecht 42 (2024), 484–493

Hilberger, Hannes u.a., Federated Learning. Versprechen und Herausforderung bei der Entwicklung von KI-Systemen basierend auf dezentralen Gesundheitsdaten, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 175–196

JuraForum.de-Redaktion, BVerfG Karlsruhe bestätigt zentrale Speicherung von Patientendaten für Forschung, 6.5.2020, online www.juraforum.de/news/bverfg-karlsruhebestaetigt-zentrale-speicherung-von-patientendaten-fuer-forschung_238098 (Abruf 17.9.2024)

Katzenmeier, Christian, KI in der Medizin – Haftungsfragen, in: Medizinrecht 39 (2021), 859–867

Klein, Andreas u.a., Einleitung, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 19–47

Klein, Andreas, Ethische Perspektiven eines verantwortungsbewussten Umgangs mit Künstlicher Intelligenz, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 103–125

Knoepffler, Nikolaus, Den Hippokratischen Eid neu denken. Medizinethik für die Praxis, Freiburg/Br. 2021

Kreß, Hartmut, Staat und Person, Stuttgart 2018

Kreß, Hartmut, Medizinische Ethik. Gesundheitsschutz – Selbstbestimmungsrechte – Rechtspolitik, Stuttgart 3. erw. u. überarb. Auflage 2024

Mehnen, Lars u.a., ChatGPT als Arzt?, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 143–151

Müller, Frank, Herausforderung Interkulturelle Kommunikation: Können digitale Hilfen gegenseitiges Verstehen verbessern?, in: Hanns Martin Schleyer-Stiftung u.a., Medizin 4.0 – Zur Zukunft der Medizin in der digitalisierten Welt, Berlin 2017, S. 125–131

Pöltner, Günther, Grundkurs Medizin-Ethik, Wien 2002

Pölzl, Daniel u.a., KI zur Optimierung von Patient:innen-Flüssen im Gesundheitswesen, in: Andreas Klein, Sebastian Dennerlein, Helmut Ritschl (Hg.), Health Care und Künstliche Intelligenz, Tübingen 2024, S. 439–453

Sass, Hans-Martin, Differentialethik, Berlin 2006

Schweizerische Akademie der Medizinischen Wissenschaften (SAMW), Künstliche Intelligenz, online www.samw.ch/de/Projekte/Uebersicht-der-Projekte/Kuenstliche-Intelligenz.html (Abruf 17.9.2024)

Scott, Thiebes, Lins, Sebastian, Sunyaev, Ali, Trustworthy artificial intelligence, in: Electronic Markets 31 (2021), 447–464, open access https://link.springer.com/content/pdf/10.1007/s12525-020-00441-4.pdf

Tag, Brigitte, Digitalisierung im Gesundheitswesen, in: Medizinrecht 42 (2024), 721–729, open access https://link.springer.com/article/10.1007/s00350-024-6832-6

Weber-Guskar, Eva, „Es wäre absurd, eine fühlende Maschine zu erschaffen“, in: Süddeutsche Zeitung v. 14.8.2024, S. 48

Zenker, Sven u.a., National standardisierter Broad Consent in der Praxis: erste Erfahrungen, aktuelle Entwicklungen und kritische Betrachtungen, in: Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz 67 (2024), 637–647, open access https://link.springer.com/article/10.1007/s00103-024-03878-6

Zivilrechtliche Regelungen im Bereich Robotik. Entschließung des Europäischen Parlaments v. 16.2.2017

Verfasst von
Prof. Dr. Hartmut Kreß
Professor für Sozialethik an der Universität Bonn
Website
Mailformular

Es gibt 2 Materialien von Hartmut Kreß.

Zitiervorschlag
Kreß, Hartmut, 2024. Künstliche Intelligenz in der Medizin: Auswirkungen auf Patient*innen, auf das ärztliche Personal und auf das Arzt-Patient-Verhältnis [online]. socialnet Materialien. Bonn: socialnet, 22.10.2024 [Zugriff am: 20.05.2025]. https://doi.org/10.60049/pajm10sfx

Zählpixel

Urheberrecht
Dieser Beitrag ist, wie alle anderen Inhalte bei socialnet, urheberrechtlich geschützt. Falls Sie Interesse an einer Nutzung haben, helfen wir Ihnen gerne weiter. Gerne steht Ihnen die Redaktion der Materialien für weitere Fragen und Absprachen zur Verfügung.