OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 17.03.2026, 19:35

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

KI in der bildgebenden Diagnostik verantwortet vertrauen. Erfahrungen aus Radiologie und Pathologie ethisch diskutiert

2025·1 Zitationen·Ethik in der MedizinOpen Access
Volltext beim Verlag öffnen

1

Zitationen

4

Autoren

2025

Jahr

Abstract

Zusammenfassung In der medizinischen bildgebenden Diagnostik kommen zunehmend Assistenzsysteme zum Einsatz, die auf maschinellem Lernen basieren. Können Ärzt:innen jedoch noch Verantwortung für eine Diagnose übernehmen, deren Zustandekommen sie nicht bis ins Letzte verstehen? Wer blind auf die Technik vertraut, kann wohl schwerlich die epistemische Bedingung von Verantwortung erfüllen. Qualitative Interviews mit Radiolog:innen und Patholog:innen rund um die Themen „Verantwortung“ und „Vertrauen“ zeigen, dass Ärzt:innen nur dann auf KI-Ergebnisse vertrauen, wenn sie die Möglichkeit zur Kontrolle haben. Kontrolle kann die Grundlage für ein begründetes (im Gegensatz zu blindem ) Vertrauen schaffen. Es lohnt, darüber nachzudenken, ob ein solches begründetes Vertrauen auch die epistemische Bedingung von Verantwortung erfüllen kann: Ärzt:innen müssten dann nicht mehr ein bestimmtes Einzelergebnis der KI überprüfen (können), sondern es wäre ausreichend, dass sie vorher die Expertise von KI für diese Aufgabe überprüft haben und fortlaufend reevaluieren. Es zeigt sich, dass die skizzierten Herausforderungen keineswegs KI-spezifisch sind: Verantwortungsübernahme trotz mangelndem Wissen begegnet u. a. auch im Bereich der Delegation. Dass innere Prozesse nur schwer nachvollzogen werden können, gilt zudem auch für Menschen und andere technische Geräte. Um KI verantwortet vertrauen zu können, brauchen Ärzt:innen ein informationstechnologisches Grundverständnis sowie ein geschärftes Bewusstsein für die jeweiligen Stärken von Mensch und Maschine. Sie sollten generell die Möglichkeit haben, KI-Ergebnisse nachzuvollziehen, allerdings sollte differenziert evaluiert werden, für welche Prozesse Nachvollziehbarkeit notwendig und hilfreich ist. Entwickler:innen von KI könnten durch eine Produkthaftung stärker in die Verantwortung genommen werden.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Artificial Intelligence in Healthcare and EducationAdvanced X-ray and CT ImagingRadiomics and Machine Learning in Medical Imaging
Volltext beim Verlag öffnen