Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
ChatGPT Hallucinates when Attributing Answers
2023·44 Zitationen
Volltext beim Verlag öffnen44
Zitationen
3
Autoren
2023
Jahr
Abstract
Can ChatGPT provide evidence to support its answers? Does the evidence it suggests actually exist and does it really support the answer? We investigate these questions using a collection of domain-specific knowledge-based questions, specifically prompting ChatGPT to provide both an answer and supporting evidence in the form of references to external sources. We also investigate how different prompts impact answers and evidence.
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingExplainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and Education