Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Explainability can foster trust in artificial intelligence in geoscience
2025·25 Zitationen·Nature Geoscience
Volltext beim Verlag öffnen25
Zitationen
14
Autoren
2025
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.299 Zit.
Generative Adversarial Nets
2023 · 19.841 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.236 Zit.
"Why Should I Trust You?"
2016 · 14.198 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.098 Zit.
Autoren
Institutionen
- Fraunhofer Institute for Telecommunications, Heinrich Hertz Institute(DE)
- Parc Científic de la Universitat de València(ES)
- Joint Research Centre(IT)
- University of Maryland, Baltimore County(US)
- Goddard Space Flight Center(US)
- University of Padua(IT)
- University of Cambridge(GB)
- Systemic Risk Centre(GB)
- University College London(GB)
- Technische Universität Berlin(DE)
- Berlin Institute for the Foundations of Learning and Data
- LinkedIn (United States)(US)
Themen
Explainable Artificial Intelligence (XAI)Scientific Computing and Data ManagementArtificial Intelligence in Healthcare and Education