English Intern
  • 6 Studierende geniessen das Studentenleben in Würzburg im Sommer.
  • Drei Studierende tragen T-Shirts mit einem Aufdruck der Universität Würzburg.

Wenig Vertrauen in Dr. ChatGPT

25.07.2024

Menschen vertrauen medizinischen Ratschlägen weniger, wenn sie vermuten, dass eine künstliche Intelligenz an deren Erstellung beteiligt ist. Das ist das zentrale Ergebnis einer Studie Würzburger Psychologen.

Bis Menschen medizinischen Ratschlägen einer KI vertrauen, ist noch ein weiter Weg. Momentan überwiegt die Skepsis.
Bis Menschen medizinischen Ratschlägen einer KI vertrauen, ist noch ein weiter Weg. Momentan überwiegt die Skepsis. (Bild: Alexander Limbach / Adobe Stock)

Früher haben die Menschen Dr. Google befragt, wenn sie wissen wollten, ob ihre Symptome für eine leichte Magenverstimmung sprechen oder doch für Krebs im Endstadium; heute wenden sich dafür zunehmend an ChatGPT. Mit der Folge, dass niedergelassene Mediziner sich über Patientinnen und Patienten beschweren, die mit fertigen Diagnosen aus dem Internet in die Sprechzimmer kommen und sich nur mit Mühe davon überzeugen lassen, dass sie nicht schwer erkrankt sind.
Tatsächlich ist das Vertrauen in die medizinische Kompetenz einer künstlichen Intelligenz (KI) längst nicht so ausgeprägt, wie es den Anschein hat. Das ist zumindest das Ergebnis einer neuen Studie, die jetzt in der Fachzeitschrift Nature Medicine veröffentlicht wurde.

Ein ausgeprägtes Misstrauen gegenüber der KI

Sie zeigt, dass Menschen medizinische Ratschläge als weniger zuverlässig und empathisch beurteilen, wann immer eine KI daran beteiligt war. Das war selbst dann der Fall, wenn die Studienteilnehmer annehmen konnten, dass ein Arzt oder eine Ärztin unter Zuhilfenahme einer KI diese Empfehlungen erstellt hatte. Konsequenterweise waren die Befragten bei KI-unterstützten Entscheidungen auch in geringerem Maße dazu bereit, diesen zu folgen – verglichen mit Ratschlägen, die ausschließlich auf ärztlicher Expertise basierten.

Verantwortlich für diese Studie von Seiten der Julius-Maximilians-Universität (JMU) sind Moritz Reis und Professor Wilfried Kunde vom Lehrstuhl für Psychologie III. Die Studie entstand in Zusammenarbeit mit Florian Reis von der Pfizer Pharma GmbH.

„Das Setting unserer Studie ist angelehnt an eine Digital Health-Plattform, auf der Informationen zu medizinischen Fragestellungen eingeholt werden können – also ein Setting, welches mit der zunehmenden Digitalisierung an Relevanz dazugewinnen wird“, beschreiben die Autoren ihr Vorgehen.

Keine Unterschiede in der Verständlichkeit

Mehr als 2.000 Studienteilnehmerinnen und -teilnehmer erhielten im Rahmen des Experiments identische medizinische Ratschläge und sollten diese auf ihre Verlässlichkeit, Verständlichkeit und Empathie bewerten. Der einzige Unterschied: Während eine Gruppe die Information erhielt, diese Ratschläge stammten von einem Arzt beziehungsweise einer Ärztin, hieß es für die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde in dem Glauben gelassen, ein Arzt oder eine Ärztin habe die Empfehlung unter Zuhilfenahme einer KI erstellt.

Die Ergebnisse sind eindeutig: Menschen vertrauen medizinischen Empfehlungen weniger, wenn sie vermuten, dass KI beteiligt ist. Das gilt auch dann, wenn sie glauben, dass ärztliches Personal daran mitgewirkt hat. Auch in der Kategorie „Empathie“ schneidet der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt der Verständlichkeit zeigen sich kaum Unterschiede zwischen den drei Gruppen. Anscheinend haben Menschen unter diesem Gesichtspunkt keine Vorbehalte gegen die Technik.

Vertrauen ist wichtig für den Behandlungserfolg

„Das ist ein wichtiger Befund, da Vertrauen in medizinische Diagnosen und Therapieempfehlungen bekanntermaßen ein sehr wichtiger Faktor für den Behandlungserfolg ist“, bewerten die Autoren das Studienergebnis. Gerade vor dem Hintergrund einer möglichen Entbürokratisierung und Entlastung des ärztlichen Arbeitsalltags durch eine Kooperation mit KI erhalten diese Erkenntnisse einen besonderen Stellenwert. Ihrer Ansicht nach bildet die Studie somit einen Startpunkt für eine detaillierte Erforschung der Bedingungen dafür, wie KI in Diagnostik und Therapie eingesetzt werden kann, ohne das Vertrauen und die Mitwirkung von Patientinnen und Patienten zu gefährden.

Publikation

Reis, M., Reis, F. & Kunde, W. (2024). Influence of believed AI involvement on the perception of digital medical advice. Nature Medicine. https://doi.org/10.1038/s41591-024-03180-7

Full-Text Access: https://rdcu.be/dOVCu

Kontakt

Moritz Reis, Lehrstuhl für Psychologie III, T: +49 931 31-81629, moritz.reis@uni-wuerzburg.de

 

Von Gunnar Bartsch

Zurück