OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 01.04.2026, 22:49

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

The perils of politeness: how large language models may amplify medical misinformation

2025·2 Zitationen·npj Digital MedicineOpen Access
Volltext beim Verlag öffnen

2

Zitationen

5

Autoren

2025

Jahr

Abstract

Chen et al. demonstrate that large language models (LLMs) frequently prioritize agreement over accuracy when responding to illogical medical prompts, a behavior known as sycophancy. By reinforcing user assumptions, this tendency may amplify misinformation and bias in clinical contexts. The authors find that simple prompting strategies and LLM fine-tuning can markedly reduce sycophancy without impairing performance, highlighting a path toward safer, more trustworthy applications of LLMs in medicine.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Misinformation and Its ImpactsArtificial Intelligence in Healthcare and EducationTopic Modeling
Volltext beim Verlag öffnen