Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
How the different explanation classes impact trust calibration: The case of clinical decision support systems
2022·112 Zitationen·International Journal of Human-Computer StudiesOpen Access
Volltext beim Verlag öffnen112
Zitationen
4
Autoren
2022
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.305 Zit.
Generative Adversarial Nets
2023 · 19.841 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.236 Zit.
"Why Should I Trust You?"
2016 · 14.204 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.103 Zit.
Autoren
Institutionen
Themen
Explainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and EducationEthics and Social Impacts of AI