Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
AI reflections in 2019
2020·6 Zitationen·Nature Machine IntelligenceOpen Access
Volltext beim Verlag öffnen6
Zitationen
23
Autoren
2020
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.253 Zit.
Generative Adversarial Nets
2023 · 19.841 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.230 Zit.
"Why Should I Trust You?"
2016 · 14.156 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.093 Zit.
Autoren
- Alexander Rich
- Cynthia Rudin
- David Jacoby
- Robin Freeman
- Oliver R. Wearn
- Henry Shevlin
- Kanta Dihal
- Seán Ó hÉigeartaigh
- James Butcher
- Marco Lippi
- Przemysław Pałka
- Paolo Torroni
- Shannon Wongvibulsin
- Edmon Begoli
- Gisbert Schneider
- Stephen Cave
- Mona Sloane
- Emmanuel Moss
- Iyad Rahwan
- Ken Goldberg
- David Howard
- Luciano Floridi
- Jack Stilgoe
Institutionen
- Flatiron Health (United States)(US)
- Duke University(US)
- Zoological Society of London(GB)
- Leverhulme Trust(GB)
- University of Cambridge(GB)
- University of Modena and Reggio Emilia(IT)
- University of Bologna(IT)
- Johns Hopkins University(US)
- Johns Hopkins Medicine(US)
- Oak Ridge National Laboratory(US)
- ETH Zurich(CH)
- New York University(US)
- Public Knowledge(US)
- Data & Society Research Institute(US)
- Max Planck Institute for Human Development(DE)
- University of California, Berkeley(US)
- Berkeley College(US)
- Commonwealth Scientific and Industrial Research Organisation(AU)
- University of Oxford(GB)
- University College London(GB)
Themen
Explainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and EducationEthics and Social Impacts of AI