OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 17.03.2026, 01:14

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

MIRAGE: Misleading Impacts Resulting from AI Generated Explanations (Workshop)

2026·1 ZitationenOpen Access
Volltext beim Verlag öffnen

1

Zitationen

4

Autoren

2026

Jahr

Abstract

Explanations from AI systems can illuminate, yet they can misguide. This half-day MIRAGE workshop at IUI 2026 confronts the Explainability Pitfalls and Dark Patterns embedded in AI-generated explanations. Evidence now shows that explanations may inflate unwarranted trust, warp mental models, and obscure power asymmetries—even when designers intend no harm. We convene an interdisciplinary group of researchers and practitioners to define, detect, and defuse these hazards. By shifting the focus from making explanations to making explanations safe, MIRAGE propels the community toward an accountable, human-centered AI future.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Explainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and EducationEthics and Social Impacts of AI
Volltext beim Verlag öffnen