Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
"Why Should I Trust You?"
14.150
Zitationen
3
Autoren
2016
Jahr
Abstract
Despite widespread adoption, machine learning models remain mostly black boxes. Understanding the reasons behind predictions is, however, quite important in assessing trust, which is fundamental if one plans to take action based on a prediction, or when choosing whether to deploy a new model. Such understanding also provides insights into the model, which can be used to transform an untrustworthy model or prediction into a trustworthy one.
Einordnung (Deutsch)
Diese Studie untersucht despite widespread adoption, machine learning models remain mostly black boxes. Die Arbeit trägt den Originaltitel „"Why Should I Trust You?"" und ist relevant für die aktuelle Gesundheits- und MedTech-Forschung. Die Ergebnisse können für Kliniker, Forscher und Fachleute im Gesundheitswesen von Bedeutung sein.
Diese Kurzfassung dient der thematischen Einordnung und ersetzt nicht den Originaltext.
Ähnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.246 Zit.
Generative Adversarial Nets
2023 · 19.841 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.228 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.091 Zit.
Generative adversarial networks
2020 · 12.849 Zit.