Eine neue Studie zeigt:
Wenn Menschen medizinische Fragen mit Chatbots klären, passieren leicht Fehler.
Oft stellen Nutzer ungenaue Fragen oder lassen wichtige Infos weg.
Die Antworten der KI werden außerdem häufig falsch verstanden.
Was wurde untersucht?
Forschende aus Oxford testeten, wie gut drei bekannte Chatbots bei medizinischen Fällen helfen:
GPT-4o (OpenAI)
Llama 3 (Meta)
Command R+ (Cohere)
1.000 Freiwillige bekamen fiktive Krankheitsfälle.
Ein Teil nutzte Chatbots, der andere suchte selbst im Internet.
Dann wurde geprüft, wer die richtige Verdachtsdiagnose und den richtigen nächsten Schritt fand.
Die wichtigsten Ergebnisse
Die Internet-Sucher waren erfolgreicher als die Chatbot-Nutzer.
Mehr als die Hälfte aller Teilnehmenden wählte einen falschen nächsten Schritt.
In vielen Fällen unterschätzten alle die Dringlichkeit der Situation.
Die Chatbots gaben manchmal richtige Hinweise – doch die Menschen nutzten sie nicht richtig.
Warum passiert das?
Nicht, weil Menschen „dumm“ sind – sondern wegen Kommunikationsproblemen:
Wichtige Infos werden nicht genannt
Fragen sind unklar
Antworten werden falsch gedeutet
Außerdem fehlen oft zwei wichtige Fähigkeiten:
Gesundheitskompetenz
→ Informationen zu Krankheiten finden, verstehen und bewertenKI-Kompetenz
→ Wissen, wie Chatbots arbeiten, was sie können – und was nicht
Sind Chatbots trotzdem nützlich?
Ja, aber nur mit klaren Regeln und guter Qualität.
Expertinnen sagen:
Medizinische Chatbots könnten helfen,
einzuschätzen, ob man zum Arzt oder in die Notaufnahme sollte.Sie müssen aber geprüft, zuverlässig und gut erklärt sein.
Niemand darf gezwungen werden, sie zu nutzen – der direkte Kontakt zu Ärztinnen und Ärzten muss bleiben.
Fazit
Chatbots können im Gesundheitsbereich unterstützen,
aber sie ersetzen keine Ärztinnen und Ärzte.
Damit sie sicher genutzt werden können, braucht es:
bessere Aufklärung
klare Leitfragen
und benutzerfreundlichere Systeme.

