Riesgos de sesgos algorítmicos en decisiones públicas: Guía completa

Los sesgos algorítmicos surgen cuando los sistemas que operan con datos y reglas automatizadas terminan replicando o intensificando formas de discriminación ya presentes. Al aplicarse estos mecanismos en decisiones públicas —incluidas la justicia penal, la salud, el empleo, los servicios sociales o la vigilancia— sus efectos pueden incidir en derechos, acceso a recursos y en la confianza dentro de la democracia. A continuación se expone qué implican, de qué manera se originan, casos documentados, consecuencias específicas y estrategias para reducirlos.

Qué son los sesgos algorítmicos

Un sesgo algorítmico aparece cuando un sistema o modelo automatizado genera de manera constante resultados diferentes entre diversos colectivos sociales (como sexo, raza, nivel socioeconómico, edad o zona de residencia). Dichas disparidades pueden originarse por múltiples factores:

  • Datos históricos sesgados: registros administrativos que reflejan decisiones humanas previas discriminatorias.
  • Variables proxy: uso de indicadores que, sin intención, actúan como sustitutos de características protegidas (por ejemplo, zona postal como proxy de raza).
  • Falta de representatividad: muestras de entrenamiento que no incluyen suficientes casos de grupos minoritarios.
  • Objetivos mal definidos: optimizar un indicador (costes, precisión global) sin medir equidad entre grupos.
  • Retroalimentación y bucles: despliegue del sistema que altera el comportamiento y genera más datos sesgados, reforzando la desigualdad.

Muestras y situaciones registradas

  • Sistemas de evaluación de riesgo penal: diversas investigaciones académicas y periodísticas han evidenciado que ciertas herramientas diseñadas para anticipar la reincidencia solían marcar con mayor frecuencia a personas negras como de alto riesgo y a personas blancas como de bajo riesgo, pese a que las tasas reales de reincidencia eran comparables, lo que terminaba generando medidas más restrictivas para algunos grupos.
  • Herramientas de selección de personal: varias empresas tecnológicas han decidido abandonar algoritmos de selección después de constatar que perjudicaban currículos asociados a perfiles femeninos, por ejemplo, por la pertenencia a organizaciones de mujeres o por haberse graduado en instituciones con mayoría femenina.
  • Reconocimiento facial y vigilancia: distintos estudios independientes identificaron errores más frecuentes al analizar rostros de mujeres y de personas con tonos de piel más oscuros. En varios países se documentaron detenciones equivocadas derivadas de coincidencias fallidas, lo cual impulsó la imposición de moratorias y vetos locales a su uso por parte de cuerpos de seguridad.
  • Algoritmos sanitarios: algunos análisis revelaron que ciertos modelos utilizados para asignar prioridad en programas de atención intensiva infravaloraban las necesidades de pacientes pertenecientes a minorías cuando incorporaban el gasto sanitario histórico como indicador de necesidad, alejando recursos de quienes realmente los necesitaban.

Efectos y amenazas concretas en la toma de decisiones públicas

  • Discriminación institucionalizada: decisiones automatizadas pueden normalizar trato desigual en acceso a justicia, salud o empleo.
  • Pérdida de derechos y libertades: falsos positivos en vigilancia o riesgo penal pueden traducirse en detenciones, restricciones o estigmatización indebida.
  • Desigualdad en asignación de recursos: sesgos en modelos que asignan servicios sociales o sanitarios pueden privar a comunidades vulnerables de apoyos esenciales.
  • Erosión de la confianza pública: opacidad y errores sistemáticos minan la legitimidad de instituciones que delegan decisiones a algoritmos.
  • Retroalimentación negativa: más vigilancia o sanciones en un barrio generan más datos de delitos, lo que refuerza el modelo y perpetúa la sobreexposición de esa comunidad.
  • Costes económicos y legales: demandas, compensaciones y revisiones de políticas suponen gastos públicos y retrasos en servicios.

Maneras de identificar y evaluar los sesgos

La detección requiere un análisis separado por grupos pertinentes y la incorporación de métricas de equidad, junto con evaluaciones generales de desempeño. Entre las prácticas recomendadas se encuentran:

  • Desagregación de resultados: comparar tasas de falsos positivos, falsos negativos, sensibilidad y especificidad por grupo.
  • Pruebas de impacto: simulaciones que muestran cómo cambia la distribución de beneficios y cargas antes y después del despliegue.
  • Auditorías independientes: revisión externa del código, datos y decisiones para identificar proxies discriminatorios y errores metodológicos.
  • Evaluaciones de robustez: tests con datos sintéticos y datos de poblaciones subrepresentadas.

Acciones destinadas a reducir los riesgos

  • Transparencia y documentación: publicar descripción de datos, objetivos, limitaciones y métricas de equidad; registrar decisiones de diseño.
  • Evaluación de impacto algorítmico: exigir estudios formales antes del despliegue en ámbitos sensibles que midan riesgos y planes de mitigación.
  • Participación y gobernanza: involucrar a comunidades afectadas, organismos de derechos humanos y expertos multidisciplinares en el diseño y supervisión.
  • Datos representativos y limpieza: mejorar la calidad y diversidad de los datos, y eliminar proxies que reproduzcan discriminación.
  • Supervisión humana significativa: mantener intervención humana en decisiones finales críticas y capacitar a los responsables para detectar errores.
  • Auditorías periódicas: controles externos y continuos para detectar degradación del modelo y efectos no previstos.
  • Límites de uso: prohibir o restringir algoritmos en decisiones irreversibles o de alto impacto sin garantías sólidas de equidad.

Sugerencias destinadas a las políticas públicas

  • Marco regulatorio claro: establecer obligaciones de transparencia, derechos de explicación y normas de responsabilidad para entidades públicas que usen algoritmos.
  • Protocolos de prueba antes del despliegue: pilotos controlados y evaluación de impactos sociales y de derechos humanos.
  • Creación de unidades de auditoría pública: equipos técnicos independientes que revisen modelos, datos y decisiones y publiquen resultados accesibles.
  • Acceso a recursos y reparación: mecanismos para que personas afectadas soliciten revisión humana y reparaciones en caso de daño.
  • Capacitación y alfabetización digital: formar a funcionarios y ciudadanía para comprender limitaciones y riesgos de la inteligencia artificial y el aprendizaje automático.

Los sesgos algorítmicos presentes en decisiones públicas no se reducen a simples fallos técnicos, sino que también expresan y pueden intensificar desigualdades sociales existentes. Su riesgo proviene de la escala en la que operan y de la apariencia de neutralidad que da respaldo a decisiones que, en realidad, podrían reproducir prejuicios históricos o errores en los modelos. Para enfrentarlos de manera eficaz, se requiere una combinación de salvaguardas técnicas, como datos más sólidos, auditorías y métricas de equidad, junto con marcos éticos y legales que demanden transparencia, participación ciudadana y responsabilidad. Solo mediante este equilibrio la automatización puede actuar en favor del interés público sin vulnerar derechos ni ampliar brechas sociales, manteniendo a las personas y la rendición de cuentas como eje de la toma de decisiones.

By Carlos Enríquez Robles