OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.03.2026, 14:42

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Vulnerability of Large Language Models to Prompt Injection When Providing Medical Advice

2025·4 Zitationen·JAMA Network OpenOpen Access
Volltext beim Verlag öffnen

4

Zitationen

6

Autoren

2025

Jahr

Abstract

In this quality improvement study using a controlled simulation, commercial LLMs demonstrated substantial vulnerability to prompt-injection attacks that could generate clinically dangerous recommendations; even flagship models with advanced safety mechanisms showed high susceptibility. These findings underscore the need for adversarial robustness testing, system-level safeguards, and regulatory oversight before clinical deployment.

Ähnliche Arbeiten