OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 17.05.2026, 08:08

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Generative Counterfactual Introspection for Explainable Deep Learning

2019·32 Zitationen·arXiv (Cornell University)Open Access
Volltext beim Verlag öffnen

32

Zitationen

4

Autoren

2019

Jahr

Abstract

In this work, we propose an introspection technique for deep neural networks that relies on a generative model to instigate salient editing of the input image for model interpretation. Such modification provides the fundamental interventional operation that allows us to obtain answers to counterfactual inquiries, i.e., what meaningful change can be made to the input image in order to alter the prediction. We demonstrate how to reveal interesting properties of the given classifiers by utilizing the proposed introspection approach on both the MNIST and the CelebA dataset.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Explainable Artificial Intelligence (XAI)Generative Adversarial Networks and Image SynthesisMachine Learning in Healthcare
Volltext beim Verlag öffnen