OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.03.2026, 22:03

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

ChatGPT Hallucinates when Attributing Answers

2023·44 Zitationen
Volltext beim Verlag öffnen

44

Zitationen

3

Autoren

2023

Jahr

Abstract

Can ChatGPT provide evidence to support its answers? Does the evidence it suggests actually exist and does it really support the answer? We investigate these questions using a collection of domain-specific knowledge-based questions, specifically prompting ChatGPT to provide both an answer and supporting evidence in the form of references to external sources. We also investigate how different prompts impact answers and evidence.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Topic ModelingExplainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and Education
Volltext beim Verlag öffnen