OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 11.05.2026, 21:57

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Survey and analysis of hallucinations in large language models: attribution to prompting strategies or model behavior

2025·30 Zitationen·Frontiers in Artificial IntelligenceOpen Access
Volltext beim Verlag öffnen

30

Zitationen

3

Autoren

2025

Jahr

Abstract

for prompt engineers, model developers, and AI practitioners. We further propose best practices and future directions to reduce hallucinations in both prompt design and model development pipelines.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Machine Learning in HealthcareTopic ModelingExplainable Artificial Intelligence (XAI)
Volltext beim Verlag öffnen