OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 19.03.2026, 21:06

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Inteligencia artificial, juicio clínico y responsabilidad en sistemas sanitarios tensionados

2025·0 Zitationen·Zenodo (CERN European Organization for Nuclear Research)Open Access
Volltext beim Verlag öffnen

0

Zitationen

2

Autoren

2025

Jahr

Abstract

Resumen. La expansión acelerada de la inteligencia artificial (IA) en la práctica médica se está produciendo en un contexto de fragilidad estructural de los sistemas sanitarios. En muchos entornos, la IA no se introduce en condiciones de tiempo clínico suficiente, continuidad asistencial o gobernanza profesional sólida, sino que se superpone a sistemas ya tensionados por la sobrecarga asistencial, la fragmentación del cuidado y la erosión progresiva del juicio clínico. Este artículo sostiene que dicho contexto condiciona de manera decisiva el impacto real de la IA sobre la calidad y la seguridad de la atención. La evidencia disponible muestra que los principales determinantes del deterioro asistencial no son déficits de conocimiento biomédico, sino fallos organizativos relacionados con la carga cognitiva, la discontinuidad de la atención y la difusión de la responsabilidad clínica. En este marco, el uso acrítico de sistemas algorítmicos puede intensificar problemas preexistentes, favoreciendo automatismos, empobrecimiento del juicio profesional y opacidad en la rendición de cuentas. Se argumenta que la IA no puede sustituir el juicio clínico ni asumir responsabilidad moral, pero puede desempeñar un papel legítimo si se integra como apoyo a la infraestructura invisible del cuidado. En particular, puede contribuir a reducir carga administrativa, apoyar la continuidad asistencial y mejorar la planificación organizativa. Estos beneficios dependen, sin embargo, de una gobernanza clínica explícita que garantice supervisión humana, trazabilidad y responsabilidad claramente atribuible. La cuestión central no es si la IA puede ayudar, sino en qué condiciones se permite su uso. Abstract. The accelerated expansion of artificial intelligence (AI) in medical practice is taking place at a time of structural fragility across many health systems. In most settings, AI is not being introduced into environments characterised by adequate clinical time, continuity of care, or robust professional governance, but rather layered onto systems already strained by workload pressures, fragmented care, and the gradual erosion of clinical judgement. This article argues that such context decisively shapes the real impact of AI on care quality and patient safety. Available evidence indicates that the main drivers of declining performance in healthcare are not deficits in biomedical knowledge, but organisational failures related to cognitive overload, discontinuity of care, and weakened clinical accountability. In this setting, poorly governed algorithmic tools risk intensifying existing problems, promoting automation bias, diminishing professional judgement, and obscuring responsibility. The article contends that AI cannot replace clinical judgement or assume moral responsibility. Its legitimate contribution lies in supporting the often-invisible infrastructure that enables good clinical care. Appropriately designed, AI may help reduce administrative burden, support longitudinal continuity, and inform organisational planning. These potential benefits, however, depend on explicit clinical governance arrangements that ensure meaningful human oversight, transparency, and clearly attributable responsibility. The central question is therefore not whether AI can help medicine, but under what conditions, for what purposes, and according to which values its use is permitted.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Artificial Intelligence in Healthcare and EducationEthics and Social Impacts of AIMedical Malpractice and Liability Issues
Volltext beim Verlag öffnen