Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Clinical Large Language Model Evaluation by Expert Review (CLEVER): Framework Development and Validation
2025·2 Zitationen·JMIR AIOpen Access
Volltext beim Verlag öffnen2
Zitationen
4
Autoren
2025
Jahr
Abstract
The models show comparable performance on open-ended medical question answering, suggesting that health care-specific LLMs can outperform much larger general purpose LLMs in tasks that require understanding of clinical context. We test the validity of CLEVER evaluations by conducting interannotator agreement, interclass correlation, and washout period analysis.
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingText Readability and SimplificationArtificial Intelligence in Healthcare and Education