OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.03.2026, 18:22

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Performance of GPT-3.5 and GPT-4 on standardized urology knowledge assessment items in the United States: a descriptive study

2024·22 Zitationen·Journal of Educational Evaluation for Health ProfessionsOpen Access
Volltext beim Verlag öffnen

22

Zitationen

4

Autoren

2024

Jahr

Abstract

s: ChatGPT performs relatively poorly on standardized multiple-choice urology board exam-style items, with GPT-4 outperforming GPT-3.5. The accuracy was below the proposed minimum passing standards for the American Board of Urology's Continuing Urologic Certification knowledge reinforcement activity (60%). As artificial intelligence progresses in complexity, ChatGPT may become more capable and accurate with respect to board examination items. For now, its responses should be scrutinized.

Ähnliche Arbeiten