Wenn ein Arzt einer künstlichen Intelligenz bei der Patientenbehandlung widerspricht ist derjenige nicht unbedingt rechtlich geschützt.
Ein Wissenschaftler und ein Radiologe entwickeln
gemeinsam ein klinisches KI-Werkzeug, um Lungenerkrankungen schnell und präzise zu diagnostizieren. Eine enge Partnerschaft zwischen Forschenden und Klinikern ist die Stärke des Berner Zentrums für Künstliche Intelligenz in der Medizin (zVg).
Ein Wissenschaftler und ein Radiologe entwickeln gemeinsam ein klinisches KI-Werkzeug, um Lungenerkrankungen schnell und präzise zu diagnostizieren. Eine enge Partnerschaft zwischen Forschenden und Klinikern ist die Stärke des Berner Zentrums für Künstliche Intelligenz in der Medizin (zVg). - sda - © Universität Bern
Ad

Das Wichtigste in Kürze

  • Wenn Ärzte und Ärztinnen KI in Sachen Patientenbehandlung widersprechen, hat dies Folgen.
  • Denn die Mediziner seien im Schadensfall nicht unbedingt rechtlich geschützt.

Ärztinnen und Ärzte, die künstlicher Intelligenz (KI) bei der Wahl einer Behandlung widersprechen, sind vor Geschworenengerichten nicht unbedingt geschützt. Selbst dann nicht, wenn die KI einen vom medizinischen Standard abweichenden Vorschlag macht. Das haben ETH-Forschende anhand eines juristischen Experiments herausgefunden, wie die Hochschule mitteilte.

In vielen Bereichen könnte künstliche Intelligenz enorme Fortschritte bringen, auch in der Medizin.

Aber sie wirft auch Fragen auf, beispielsweise: Wenn sich Ärzte auf KI verlassen und bei der Therapie etwas schiefgeht, wie wahrscheinlich ist es dann, dass sie rechtlich haftbar gemacht werden?

ETH-Forschende um Alexander Stremitzer, Professor für Recht und Ökonomie, haben dies nun in einem Experiment mit amerikanischen Laien, mit welchen Geschworenengerichte besetzt sind, untersucht. Für die im März 2020 durchgeführte Studie rekrutierten sie 2000 Amerikanerinnen und Amerikaner, repräsentativ ausgesucht nach Alter, Herkunft und Geschlecht.

Die Forschenden präsentierten den Teilnehmenden verschiedene Szenarien: In jedem fiktiven Beispiel überprüfte ein Arzt die Fallakte einer Patientin mit Eierstockkrebs und hatte die Hilfe eines KI-Systems zur Seite. Dieses gab eine Dosierungsempfehlung für ein Chemotherapeutikum ab, die entweder der Standardbehandlung entsprach oder davon abwich. Der Arzt lehnte den Vorschlag in einem Fall ab, in einem anderen nahm er ihn an. In allen vier Szenarien verursachte die Behandlungswahl einen Schaden bei der Patientin.

Die Teilnehmenden der Studie beurteilten es als vernünftiger, wenn der Arzt die Empfehlung der KI für eine Standardbehandlung annahm, als wenn er diese ablehnte, wie die Forschenden im Fachmagazin «Journal of Nuclear Medicine» berichten.

Überraschenderweise ist aus Sicht der Geschworenen aber Standard nicht immer besser, nämlich dann, wenn die KI eine vom Standard abweichende Behandlung vorschlägt - und der Arzt sich gegen diesen Vorschlag entscheidet. Die Geschworenen betrachten ihn dann als haftbar für den Schaden der Patientin.

Das Deliktsrecht stelle demnach möglicherweise kein so grosses Hindernis für den Einsatz von künstlicher Intelligenz in der Medizin dar, wie gemeinhin angenommen werde, schreiben die Autoren. Tatsächlich könne es KI-Anwendungen sogar fördern. Die Studie wirft auch Licht darauf, wie Laien als potentielle Patienten den Einsatz von KI beurteilen.

Die Forschenden weisen darauf hin, dass Geschworene normalerweise Expertenaussagen von jeder Seite anhören würden: Jemand, der die Annahme von KI-Ratschlägen befürwortet und jemand, der der Technologie kritisch gegenübersteht. Künftige Forschungsarbeiten sollten sich daher damit befassen, ob es einen systematischen Effekt von duellierenden Expertenaussagen gebe und Laien generell dazu tendierten, KI-Befürwortende zu bevorzugen, schliessen die Zürcher Forschenden.

Ad
Ad

Mehr zum Thema:

ArztStudie