Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Explainable AI for Chiller Fault-Detection Systems: Gaining Human Trust
2021·32 Zitationen·Computer
Volltext beim Verlag öffnen32
Zitationen
6
Autoren
2021
Jahr
Abstract
We investigate the role of explainable Artificial Intelligence (XAI) for building trust in data-driven fault detection and diagnosis (FDD). We examine use cases for XAI-FDD on a building in Singapore that has six chillers.
Ähnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 21.050 Zit.
Generative Adversarial Nets
2023 · 19.896 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.381 Zit.
"Why Should I Trust You?"
2016 · 14.789 Zit.
Generative adversarial networks
2020 · 13.381 Zit.
Autoren
Institutionen
Themen
Explainable Artificial Intelligence (XAI)Anomaly Detection Techniques and ApplicationsMachine Learning in Healthcare