Home Region Sport Schweiz/Ausland Rubriken Agenda
Gesundheit
02.08.2024

Skepsis bei medizinischen KI-Ratschlägen

ChatGPT selbst betont auf Anfrage, nicht für eine medizinische Diagnose geeignet zu sein und empfiehlt immer einen Arzt oder einen qualifizierten Gesundheitsdienstleister zu konsultieren.
ChatGPT selbst betont auf Anfrage, nicht für eine medizinische Diagnose geeignet zu sein und empfiehlt immer einen Arzt oder einen qualifizierten Gesundheitsdienstleister zu konsultieren. Bild: Pixabay: Franz Bachinger
KI-Chatbots wie ChatGPT sind beliebt – ihren medizinischen Ratschlägen wird aber mit Misstrauen begegnet, so eine neue internationale Studie.

Ein unerklärliches Ziehen im Bauch, ein hartnäckiger Husten oder ein merkwürdiger Fleck auf dem Zehennagel: Dass Menschen bei unterschiedlichsten Symptomen Google befragen, ist kein neues Phänomen – und mit der zunehmenden Beliebtheit von KI-basierten Chatbots wie ChatGPT scheinen die Möglichkeiten zur digitalen Selbstdiagnose weiter gewachsen zu sein.

Tatsächlich aber wird der medizinischen Kompetenz einer solchen Künstlichen Intelligenz noch mit grossen Vorbehalten begegnet, zeigt eine Studie, über die im Fachblatt «Nature Medicine» berichtet wird.

Wahrnehmung von KI-Ratschlägen untersucht

Die Wissenschaftler untersuchten die Reaktion von Menschen auf KI-generierte medizinische Ratschläge. «Uns interessierte nicht die technische Kompetenz der KI, sondern allein die Frage, wie der KI-Output wahrgenommen wird», sagt Moritz Reis von der deutschen Julius-Maximilians-Universität.

Dafür teilte das Forschungsteam mehr als 2'000 Probanden in drei Gruppen ein, die identische medizinische Ratschläge erhielten. Die erste Gruppe bekam gesagt, dass die Empfehlungen von einem Arzt oder einer Ärztin stammten. Bei der zweiten wurde ein KI-basierter Chatbot als Urheber genannt und die dritte Gruppe ging davon aus, dass die Ratschläge zwar von einem Chatbot stammten, aber nochmal ärztlich überprüft wurden.

Die Probanden bewerteten die Empfehlungen auf Verlässlichkeit, Verständlichkeit und Empathie. Sobald sie vermuteten, dass eine KI beteiligt war, nahmen sie die Ratschläge als weniger empathisch und verlässlich wahr. Dies galt auch für die Gruppe, die glaubte, dass ein Arzt die KI-Empfehlungen überprüft hatte. Entsprechend waren sie weniger bereit, diesen Empfehlungen zu folgen. «Der Effekt der Voreingenommenheit gegen KI ist zwar nicht riesig, aber statistisch signifikant», kommentiert Reis.

ChatGPTs eigene Einschätzung

ChatGPT selbst betont, dafür nicht geeignet zu sein. Befragt nach seiner diagnostischen Qualifikation antwortet der Bot: «Ich bin kein Arzt und habe keine medizinische Ausbildung. Ich kann Informationen über medizinische Themen bereitstellen, allgemeine Ratschläge geben und Fragen beantworten, aber ich kann keine medizinischen Diagnosen stellen oder professionelle medizinische Beratung bieten. Bei gesundheitlichen Problemen oder Fragen solltest Du immer einen Arzt oder einen qualifizierten Gesundheitsdienstleister konsultieren.»

Keystone-SDA, Redaktion March24 & Höfe24/Linth