Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Medical large language models are vulnerable to data-poisoning attacks
117
Zitationen
33
Autoren
2025
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI
2019 · 8.197 Zit.
Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead
2019 · 8.047 Zit.
High-performance medicine: the convergence of human and artificial intelligence
2018 · 7.410 Zit.
Proceedings of the 19th International Joint Conference on Artificial Intelligence
2005 · 5.776 Zit.
Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)
2018 · 5.410 Zit.
Autoren
- Daniel Alexander Alber
- Zihao Yang
- Anton Alyakin
- Eunice Yang
- N. Shesh
- Aly Valliani
- Jeff Zhang
- Gabriel R. Rosenbaum
- Ashley K. Amend-Thomas
- David B. Kurland
- C. Kremer
- Alexander Eremiev
- Bruck Negash
- Daniel D. Wiggan
- M. Nakatsuka
- Karl L. Sangwon
- Sean N. Neifert
- Hammad A. Khan
- Akshay Save
- Adhith Palla
- Eric A. Grin
- Monika Hedman
- Mustafa Nasir-Moin
- Xujin Chris Liu
- Lavender Yao Jiang
- Michal Mankowski
- Dorry L. Segev
- Yindalon Aphinyanaphongs
- Howard A. Riina
- John G. Golfinos
- Daniel A. Orringer
- Douglas Kondziolka
- Eric K. Oermann