OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 28.03.2026, 15:07

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Exploring AI Hallucinations of ChatGPT

2025·4 Zitationen·Simulation in Healthcare The Journal of the Society for Simulation in Healthcare
Volltext beim Verlag öffnen

4

Zitationen

5

Autoren

2025

Jahr

Abstract

Among debriefing articles generated by ChatGPT-4 and ChatGPT o1, both ChatGPT models are unreliable with respect to reference accuracy and citation relevance. Reference accuracy and citation relevance for debriefing articles do not improve even with some degree of training built into ChatGPT prompts.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Artificial Intelligence in Healthcare and EducationMachine Learning in HealthcareTopic Modeling
Volltext beim Verlag öffnen