OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.03.2026, 21:07

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Sesgo racial/étnico en sistemas de IA: revisión sistemática PRISMA de magnitud, dominios y estrategias de mitigación (2014–2025)

2025·0 Zitationen·RIEM Revista internacional de estudios migratoriosOpen Access
Volltext beim Verlag öffnen

0

Zitationen

3

Autoren

2025

Jahr

Abstract

Objetivo. Examinar en qué magnitud, dirección y dominios aparece el sesgo étnico/racial en sistemas de IA/ML y qué estrategias de mitigación muestran evidencia de efectividad. Métodos. Realizamos una búsqueda en Scopus (2014–actualidad) con una cadena centrada en bias AND “artificial intelligence” AND (racial OR ethni*), siguiendo PRISMA 2020. Tras deduplicar, se cribaron 526 registros con doble revisor (concordancia y resolución de discrepancias). Para garantizar una síntesis sólida, centramos el análisis en 10 revisiones sistemáticas recientes que abordan disparidades por raza/etnia en salud, seguridad/justicia, crédito/finanzas, empleo/selección, educación y plataformas digitales. Extraímos resultados por subgrupos (p. ej., diferencias de acierto/error entre grupos), métricas de equidad reportadas (p. ej., comparación de sensibilidades y falsos positivos entre grupos, diferencias de rendimiento global y “impacto dispar”) y medidas de mitigación (antes, durante y después del modelado, y de gobernanza). Resultados. Las 10 revisiones coinciden en que muchos sistemas de inteligencia artificial (IA) reproducen o amplifican desigualdades por raza/etnia en varios dominios. En salud, son frecuentes peores aciertos o más errores para personas negras, latinas e indígenas; en seguridad/justicia, se documentan más falsos positivos para minorías. Estrategias con evidencia favorable incluyen mejoras de datos (representatividad y calidad), reponderación/reescalado de pérdidas, ajuste de umbrales por subgrupos, y auditorías externas con transparencia de resultados; no obstante, la heterogeneidad y la medición de raza/etnia por inferencia o proxy limitan la certeza. Conclusiones. La evidencia es consistente en señalar sesgos raciales/étnicos en IA. Las mitigaciones pueden reducir disparidades, pero su efecto es parcial y depende del contexto. Recomendamos informar resultados por subgrupos, validación externa, códigos y datos reproducibles, y gobernanza (auditorías y rendición de cuentas). Limitación: fuente única (Scopus).

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Artificial Intelligence in Healthcare and EducationEthics and Social Impacts of AIGlobal Health and Surgery
Volltext beim Verlag öffnen