Meine Erfahrung in der Medizin erlaubt es mir, zwischen echter Innovation und subtiler Umklassifizierung zu unterscheiden, die die Praxis grundlegend verändert, ohne dass sie sich verändert. Künstliche Intelligenz hat in letzter Zeit viel Aufmerksamkeit erregt, darunter die weit verbreitete Behauptung, KI sei in den Vereinigten Staaten „rechtlich zur Ausübung der Medizin befugt“. Wörtlich genommen ist diese Behauptung unzutreffend. Keine Ärztekammer hat eine Maschine zugelassen. Kein Algorithmus hat einen Eid geschworen, eine Treuepflicht übernommen oder die persönliche Haftung für Patientenschäden übernommen. Kein Roboterarzt eröffnet eine Praxis, rechnet mit Versicherungen ab oder steht vor einem Arzthaftungsgericht.
Diese Feststellung allein greift jedoch zu kurz, um das umfassendere Problem zu übersehen. Rechtliche Haftungsbegriffe werden derzeit neu definiert, oft ohne dass die Öffentlichkeit davon Kenntnis erlangt.
Ein tiefgreifender Wandel ist im Gange, der mehr als reflexartige Ablehnung oder unkritische Begeisterung für neue Technologien rechtfertigt. Die aktuelle Entwicklung besteht nicht in der Zulassung künstlicher Intelligenz als Arzt, sondern vielmehr in der schrittweisen Auflösung der Kerngrenze der Medizin: der untrennbaren Verbindung zwischen klinischer Beurteilung und menschlicher Verantwortung. Klinische Beurteilung bedeutet, fundierte Entscheidungen zu treffen, die auf die individuellen Bedürfnisse und Umstände jedes Patienten zugeschnitten sind und Empathie, Intuition und ein tiefes Verständnis der medizinischen Ethik erfordern.
Menschliche Verantwortlichkeit bezeichnet die Verantwortung, die Gesundheitsdienstleister für ihre Entscheidungen und deren Folgen übernehmen. Dieser Verlust an Verantwortlichkeit ist nicht das Ergebnis einschneidender Gesetze oder öffentlicher Debatten, sondern vollzieht sich schleichend durch Pilotprojekte, Neuinterpretationen von Vorschriften und eine Sprache, die Verantwortung bewusst verschleiert. Sobald diese Grenze verschwimmt, verändert sich die Medizin auf eine Weise, die nur schwer umkehrbar ist.
Die Hauptsorge besteht nicht darin, ob KI Rezepte erneuern oder auffällige Laborwerte erkennen kann. Die Medizin nutzt schon lange Hilfsmittel, und Gesundheitsdienstleister begrüßen im Allgemeinen Unterstützung, die administrative Aufgaben reduziert oder die Mustererkennung verbessert. Die eigentliche Frage ist, ob medizinisches Urteilsvermögen – die Entscheidung über die richtigen Maßnahmen, Patienten und Risiken – als computergeneriertes Ergebnis von moralischer Verantwortung losgelöst betrachtet werden kann. In der Vergangenheit haben Versuche, Urteilsvermögen von Verantwortlichkeit zu trennen, oft Schaden angerichtet, ohne dass die Verantwortung übernommen wurde.
Jüngste Entwicklungen verdeutlichen die Ursprünge der aktuellen Verwirrung. In mehreren Bundesstaaten erlauben begrenzte Pilotprojekte nun KI-gestützten Systemen, bei der Rezeptverlängerung für stabile chronische Erkrankungen im Rahmen eng definierter Protokolle zu helfen. Auf Bundesebene wurde in einem Gesetzesentwurf geprüft, ob künstliche Intelligenz für bestimmte gesetzliche Zwecke als „Behandler“ gelten könnte, sofern sie angemessen reguliert wird. Diese Initiativen werden typischerweise als pragmatische Antworten auf Ärztemangel, Verzögerungen beim Zugang zu medizinischer Versorgung und administrative Ineffizienzen dargestellt. Obwohl keine dieser Initiativen KI explizit als Arzt einstuft, normalisieren sie gemeinsam die besorgniserregende Annahme, dass medizinische Maßnahmen ohne einen klar identifizierbaren menschlichen Entscheidungsträger erfolgen können.
In der Praxis ist diese Unterscheidung grundlegend. Medizin definiert sich nicht durch die mechanische Ausführung von Aufgaben, sondern durch die Übernahme von Verantwortung bei unerwünschten Folgen. Ein Rezept auszustellen ist unkompliziert; die Verantwortung für die Konsequenzen zu übernehmen – insbesondere unter Berücksichtigung von Begleiterkrankungen, des sozialen Umfelds, der Werte des Patienten oder unvollständiger Informationen – ist weitaus komplexer. In meiner gesamten Laufbahn lag diese Verantwortung stets bei einem Menschen, der hinterfragt, kritisiert, korrigiert und zur Rechenschaft gezogen werden konnte. Wenn Dr. Smith einen Fehler macht, weiß die Familie, an wen sie sich wenden kann, wodurch eine direkte Verbindung zur menschlichen Verantwortung gewährleistet ist. Kein Algorithmus, so ausgefeilt er auch sein mag, kann diese Rolle erfüllen.
Das Hauptrisiko ist nicht technologischer, sondern regulatorischer und philosophischer Natur. Dieser Wandel markiert eine Abkehr von der Tugendethik hin zum Prozeduralismus. Wenn Gesetzgeber und Institutionen medizinische Entscheidungsfindung als Funktion von Systemen statt von individuellen Handlungen definieren, verändert sich der moralische Rahmen der Medizin. Verantwortlichkeit wird unklarer, Schäden lassen sich schwerer zuordnen, und die Verantwortung verlagert sich von den Ärzten auf Prozesse, vom Urteilsvermögen zur Protokollbefolgung. Treten Fehler unweigerlich auf, lautet die vorherrschende Erklärung: „Das System hat die geltenden Richtlinien befolgt.“ Die Erkenntnis dieses Wandels verdeutlicht die Verschiebung von individueller ethischer Entscheidungsfindung hin zu mechanisierter, verfahrensorientierter Befolgung.
Diese Sorge ist nicht theoretischer Natur. Das moderne Gesundheitswesen steht bereits vor Herausforderungen im Zusammenhang mit mangelnder Verantwortlichkeit. Ich habe erlebt, wie Patienten, die durch algorithmengestützte Entscheidungen geschädigt wurden, im Dschungel von Verwaltung, Anbietern und intransparenten Modellen untergingen, ohne dass die grundlegende Frage beantwortet wurde: Wer hat diese Entscheidung getroffen? Künstliche Intelligenz verschärft dieses Problem erheblich. Ein Algorithmus kann keine moralischen Begründungen liefern, keine Gewissensentscheidungen treffen, Handlungen aus ethischen Gründen ablehnen oder Fehler gegenüber Patienten oder Angehörigen eingestehen.
Befürworter einer verstärkten Autonomie von KI führen häufig Effizienz als Begründung an. Kliniken sind überlastet, Ärzte leiden unter Burnout, und Patienten warten oft monatelang auf Behandlungen, die eigentlich nur Minuten dauern sollten. Diese Bedenken sind berechtigt, und jeder ehrliche Arzt erkennt sie an. Effizienz allein rechtfertigt jedoch nicht die Veränderung der ethischen Grundlagen der Medizin. Systeme, die auf Geschwindigkeit und Skalierbarkeit optimiert sind, opfern oft Feingefühl, Diskretion und die Würde des Einzelnen. Traditionell hat sich die Medizin dieser Tendenz widersetzt, indem sie betonte, dass Pflege im Kern eine Beziehung und keine Transaktion ist.
Künstliche Intelligenz birgt die Gefahr, dieses Verhältnis umzukehren. Wenn Systeme statt Einzelpersonen die Patientenversorgung übernehmen, besteht keine vertragliche Beziehung mehr zwischen Patient und Arzt, sondern der Patient wird Teil eines Arbeitsablaufs. Der Arzt übernimmt die Rolle des Maschinen-Supervisors oder, noch besorgniserregender, dient als rechtlicher Puffer, der die Haftung für Entscheidungen trägt, die er nicht selbst getroffen hat. Mit der Zeit weicht das klinische Urteil der Protokollbefolgung, und die moralische Handlungsfähigkeit nimmt allmählich ab.
KI birgt jedoch ein subtileres und gefährlicheres Problem: die Verschleierung von Unsicherheit. Die Medizin lebt von Ambiguität. Evidenz basiert auf Wahrscheinlichkeiten. Leitlinien sind vorläufig. Patienten stellen selten eindeutige Datensätze dar. Kliniker werden nicht nur zum Handeln geschult, sondern auch zum Zögern – um zu erkennen, wann Informationen unzureichend sind, wann ein Eingriff mehr schaden als nutzen könnte oder wann Abwarten angebracht ist. Stellen Sie sich ein Szenario vor, in dem die KI die Entlassung empfiehlt, der Ehepartner des Patienten jedoch ängstlich wirkt. Dies verdeutlicht die Spannung zwischen algorithmischer Entscheidungsfindung und menschlicher Intuition. Solche realen Konflikte unterstreichen die Tragweite von Ambiguität.
KI-Systeme kennen keine Unsicherheit; sie generieren Ergebnisse. Liegen diese falsch, tun sie dies oft mit unbegründeter Überzeugung. Diese Eigenschaft ist kein Programmierfehler, sondern ein inhärentes Merkmal statistischer Modelle. Anders als erfahrene Kliniker, die Zweifel offen äußern, können große Sprachmodelle und Systeme des maschinellen Lernens ihre eigenen Grenzen nicht erkennen. Sie liefern plausible Antworten, selbst wenn die Datenlage unzureichend ist. In der Medizin kann Plausibilität ohne Begründung gefährlich sein.
Da diese Systeme immer früher in klinische Arbeitsabläufe integriert werden, beeinflussen ihre Ergebnisse zunehmend nachfolgende Entscheidungen. Mit der Zeit könnten Kliniker Empfehlungen nicht mehr aufgrund ihrer Validität, sondern aufgrund ihrer Normalisierung vertrauen. Die Beurteilung verschiebt sich allmählich von aktiver Argumentation zu passiver Akzeptanz. Unter diesen Umständen dient der „Mensch im Entscheidungsprozess“ kaum mehr als einer symbolischen Schutzmaßnahme.
Befürworter betonen häufig, dass KI Ärzte lediglich unterstützen, nicht aber ersetzen wird. Diese Zusicherung ist jedoch trügerisch. Sobald KI Effizienzgewinne nachweist, treiben wirtschaftlicher und institutioneller Druck tendenziell ihre Autonomie voran. Kann ein System Rezepte sicher wiederholen, wird es möglicherweise bald auch selbstständig Rezepte ausstellen dürfen. Kann es häufige Erkrankungen präzise diagnostizieren, wird die Notwendigkeit einer ärztlichen Überprüfung infrage gestellt. Übertrifft es den Menschen in kontrollierten Vergleichstests, sinkt die Toleranz gegenüber menschlichen Fehlern.
Angesichts dieser Entwicklungen ist die Implementierung spezifischer Schutzmaßnahmen unerlässlich. Beispielsweise könnten obligatorische Abweichungsprüfungen von 5 % der KI-gestützten Entscheidungen als konkrete Kontrollmaßnahme dienen, um die Übereinstimmung zwischen KI-Empfehlungen und menschlichem klinischem Urteilsvermögen sicherzustellen und gleichzeitig Aufsichtsbehörden und Krankenhausleitungen aussagekräftige Kennzahlen zur Überwachung der KI-Integration bereitzustellen.
Diese Fragen sind nicht böswillig gemeint; sie entstehen ganz natürlich in Systemen, die auf Kostenoptimierung und Skalierbarkeit ausgerichtet sind. Sie deuten jedoch auf eine Zukunft hin, in der menschliches Urteilsvermögen eher die Ausnahme als die Regel wird. In einem solchen Szenario werden wohlhabende Menschen weiterhin menschliche Betreuung erhalten, während andere durch automatisierte Prozesse geleitet werden. Ein Zweiklassensystem in der Medizin wird nicht aus Ideologie, sondern aus Optimierung resultieren.
Besonders heikel an dieser Situation ist das Fehlen klarer Verantwortlichkeiten. Wenn eine KI-gestützte Entscheidung einem Patienten schadet, wer trägt dann die Verantwortung? Ist es der Arzt, der das System nominell überwacht? Die Einrichtung, die es implementiert hat? Der Anbieter, der das Modell trainiert hat? Die Aufsichtsbehörde, die die Nutzung genehmigt hat? Ohne eindeutige Antworten verflüchtigt sich die Verantwortung. Und wenn die Verantwortung schwindet, folgt bald das Vertrauen.
Die Medizin basiert grundlegend auf Vertrauen. Patienten legen ihren Körper, ihre Ängste und oft auch ihr Leben in die Hände von Ärzten und Pflegekräften. Dieses Vertrauen lässt sich nicht auf einen Algorithmus übertragen, egal wie ausgefeilt er ist. Es gründet auf der Gewissheit, dass ein Mensch anwesend ist – jemand, der zuhören, sich anpassen und Verantwortung für sein Handeln übernehmen kann.
Künstliche Intelligenz gänzlich abzulehnen, ist unnötig. Bei gezieltem Einsatz kann KI den Verwaltungsaufwand reduzieren, Muster erkennen, die dem Menschen entgehen, und die klinische Entscheidungsfindung unterstützen. Sie ermöglicht es Ärzten, mehr Zeit für die Patientenversorgung statt für administrative Aufgaben aufzuwenden. Um diese Zukunft zu verwirklichen, ist jedoch ein klares Bekenntnis erforderlich, die menschliche Verantwortung im Zentrum der medizinischen Praxis zu bewahren.
„Menschliche Einbindung“ darf nicht nur symbolische Kontrolle bedeuten. Sie muss voraussetzen, dass für jede medizinische Entscheidung eine bestimmte Person verantwortlich ist, deren Begründung versteht und sowohl die Befugnis als auch die Pflicht hat, algorithmische Empfehlungen zu überstimmen. Zudem muss sie Transparenz, Erklärbarkeit und die informierte Einwilligung der Patienten umfassen sowie die Verpflichtung, in medizinisches Fachpersonal zu investieren, anstatt es durch KI zu ersetzen.
Das Hauptrisiko liegt nicht in der übermäßigen Macht künstlicher Intelligenz, sondern vielmehr in der Bereitschaft von Institutionen, Verantwortung abzugeben. Im Streben nach Effizienz und Innovation besteht die Gefahr, dass die Medizin zu einem technisch hochentwickelten, administrativ optimierten Bereich wird, dem es jedoch an moralischer Substanz mangelt.
Mit Blick auf die Zukunft ist es unerlässlich zu fragen: Welche Art von Heiler/in stellen wir uns im Jahr 2035 am Krankenbett vor? Diese Frage erfordert ein gemeinsames moralisches Vorstellungsvermögen und ermutigt uns, eine Zukunft zu gestalten, in der menschliche Verantwortung und mitfühlende Pflege im Mittelpunkt der medizinischen Praxis stehen. Die Mobilisierung des kollektiven Handelns wird entscheidend dafür sein, dass Fortschritte in der künstlichen Intelligenz diese grundlegenden Werte stärken und nicht untergraben.
Künstliche Intelligenz ist noch nicht für die Ausübung der Medizin zugelassen. Doch die Medizin wird stillschweigend umgestaltet, basierend auf Systemen, die keine moralische Verantwortung tragen. Setzt sich dieser Prozess ungehindert fort, werden wir vielleicht eines Tages feststellen, dass der Arzt nicht durch eine Maschine, sondern durch ein Protokoll ersetzt wurde – und dass im Falle eines Schadens niemand mehr zur Rechenschaft gezogen wird.
Das wäre kein Fortschritt. Das wäre eine Abdankung.
-
Joseph Varon, MD, ist Intensivmediziner, Professor und Präsident der Independent Medical Alliance. Er ist Autor von über 980 von Experten begutachteten Veröffentlichungen und Chefredakteur des Journal of Independent Medicine.
Alle Beiträge