OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 14.03.2026, 08:08

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Multi-model assurance analysis showing large language models are highly vulnerable to adversarial hallucination attacks during clinical decision support

2025·31 Zitationen·Communications MedicineOpen Access
Volltext beim Verlag öffnen

31

Zitationen

11

Autoren

2025

Jahr

Abstract

Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.

Abstract beim Verlag einsehen

Ähnliche Arbeiten