Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Should AI models be explainable to clinicians?
2024·109 Zitationen·Critical CareOpen Access
Volltext beim Verlag öffnen109
Zitationen
5
Autoren
2024
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.246 Zit.
Generative Adversarial Nets
2023 · 19.841 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.228 Zit.
"Why Should I Trust You?"
2016 · 14.150 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.091 Zit.
Autoren
Institutionen
- Inserm(FR)
- Université Paris-Saclay(FR)
- Centre Hospitalier Universitaire de Grenoble(FR)
- Assistance Publique – Hôpitaux de Paris(FR)
- Hôpital Marie Lannelongue(FR)
- Hôpital Paris Saint-Joseph(FR)
- Université Gustave Eiffel(FR)
- Bicêtre Hospital(FR)
- Emory University(US)
- Université de Versailles Saint-Quentin-en-Yvelines(FR)
- Données et algorithmes pour une ville intelligente et durable(FR)
Themen
Explainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and EducationMachine Learning in Healthcare