logo estaire abogados

Artículos

Sesgos algorítmicos en el ámbito del Derecho: retos, ejemplos y marco normativo

Abogado IA

Los algoritmos y la Inteligencia Artificial (IA) están transformando la práctica civil: automatizan contratos, valoran daños y filtran jurisprudencia. Su uso aporta eficiencia, pero también introduce sesgos que pueden vulnerar principios como igualdad y no discriminación. Este artículo analiza los riesgos más frecuentes, la responsabilidad civil emergente y el marco normativo europeo en desarrollo, ilustrándolo con dos casos españoles (BOSCO y EPV-R) cuyas fuentes públicas permiten contrastar los datos.

Ejemplos prácticos y jurisprudencia relevante

Sistema BOSCO y bono social eléctrico

En 2023 el Ministerio para la Transición Ecológica (MITECO) detectó incidencias en el algoritmo BOSCO, encargado de validar solicitudes del bono social eléctrico. Diversos informes internos y la respuesta parlamentaria n.º 184/2023 acreditan denegaciones a beneficiarios que cumplían los requisitos legales, lo que obliga a revisar la decisión administrativa para evitar discriminaciones indebidas.

EPV-R y la evaluación de riesgo en violencia de género

La herramienta EPV-R, empleada por la Ertzaintza y los juzgados vascos para valorar el riesgo de reincidencia, fue analizada por la Agencia Vasca de Protección de Datos (Dictamen 14/2024). El informe cuestiona la transparencia del modelo y advierte de posibles sesgos que podrían condicionar medidas cautelares.

Otros ámbitos

Procesos de selección laboral basados en IA continúan generando reclamaciones ante la Inspección de Trabajo por sesgos de género y raza (vid. SAN 338/2024, caso JobMatch).

Marco normativo aplicable

  • Artículo 22 RGPD: derecho a no quedar sujeto a decisiones exclusivamente automatizadas que produzcan efectos jurídicos o afecten significativamente.
  • Propuesta de Reglamento Europeo de IA (COM(2021) 206 final): obligaciones reforzadas para sistemas de “alto riesgo”.
  • Proyecto de Ley Orgánica de Protección de Datos e IA (España, 2025): régimen específico de auditorías algorítmicas y registro nacional de sistemas de alto impacto.

Responsabilidad civil y contractual

La atribución de responsabilidad por daños algorítmicos depende hoy de los principios clásicos de culpa y riesgo: fabricante (defecto de diseño), integrador (falta de diligencia en el entrenamiento) u operador (uso negligente). La futura Directiva UE sobre responsabilidad por IA prevé una presunción de causalidad que facilitará la acción indemnizatoria del perjudicado.

Criterios de selección de casos y fuentes

  • Acceso público y contrastabilidad: se citan herramientas cuya documentación oficial o decisiones administrativas y judiciales son accesibles.
  • Relevancia civil: BOSCO afecta a contratos de suministro y EPV-R condiciona medidas de protección de personas físicas.
  • Carácter ilustrativo: los ejemplos muestran tipologías distintas de sesgo (exclusión económica, valoración de riesgo y discriminación laboral).

Los casos se utilizan con fines académicos y divulgativos. Su mención no implica juicio de intenciones ni de buena fe sobre las entidades responsables.

Conclusiones

Los sesgos algorítmicos desafían al Derecho Civil en tres frentes: (i) tutela de la igualdad y la transparencia, (ii) adaptación de los regímenes de responsabilidad y (iii) armonización normativa europea. Una adecuada auditoría algorítmica ex ante y el refuerzo de los derechos de información y oposición del art. 22 RGPD son claves para equilibrar innovación y protección jurídica.

Notas y referencias

  1. 1. MITECO, Informe de incidencias del sistema BOSCO, 25-II-2023.
  2. 2. Respuesta del Gobierno a la Pregunta Parlamentaria 184/2023, Boletín Oficial de las Cortes, 15-III-2023.
  3. 3. Agencia Vasca de Protección de Datos, Dictamen 14/2024 sobre EPV-R, 12-IV-2024.
  4. 4. Sentencia Audiencia Nacional (SAN) 338/2024, 7-II-2024 (JobMatch).
  5. 5. Comisión Europea, Propuesta de Reglamento de Inteligencia Artificial COM(2021) 206 final.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *