Los algoritmos y la Inteligencia Artificial (IA) están transformando la práctica civil: automatizan contratos, valoran daños y filtran jurisprudencia. Su uso aporta eficiencia, pero también introduce sesgos que pueden vulnerar principios como igualdad y no discriminación. Este artículo analiza los riesgos más frecuentes, la responsabilidad civil emergente y el marco normativo europeo en desarrollo, ilustrándolo con dos casos españoles (BOSCO y EPV-R) cuyas fuentes públicas permiten contrastar los datos.
Ejemplos prácticos y jurisprudencia relevante
Sistema BOSCO y bono social eléctrico
En 2023 el Ministerio para la Transición Ecológica (MITECO) detectó incidencias en el algoritmo BOSCO, encargado de validar solicitudes del bono social eléctrico. Diversos informes internos y la respuesta parlamentaria n.º 184/2023 acreditan denegaciones a beneficiarios que cumplían los requisitos legales, lo que obliga a revisar la decisión administrativa para evitar discriminaciones indebidas.
EPV-R y la evaluación de riesgo en violencia de género
La herramienta EPV-R, empleada por la Ertzaintza y los juzgados vascos para valorar el riesgo de reincidencia, fue analizada por la Agencia Vasca de Protección de Datos (Dictamen 14/2024). El informe cuestiona la transparencia del modelo y advierte de posibles sesgos que podrían condicionar medidas cautelares.
Otros ámbitos
Procesos de selección laboral basados en IA continúan generando reclamaciones ante la Inspección de Trabajo por sesgos de género y raza (vid. SAN 338/2024, caso JobMatch).
Marco normativo aplicable
- Artículo 22 RGPD: derecho a no quedar sujeto a decisiones exclusivamente automatizadas que produzcan efectos jurídicos o afecten significativamente.
- Propuesta de Reglamento Europeo de IA (COM(2021) 206 final): obligaciones reforzadas para sistemas de “alto riesgo”.
- Proyecto de Ley Orgánica de Protección de Datos e IA (España, 2025): régimen específico de auditorías algorítmicas y registro nacional de sistemas de alto impacto.
Responsabilidad civil y contractual
La atribución de responsabilidad por daños algorítmicos depende hoy de los principios clásicos de culpa y riesgo: fabricante (defecto de diseño), integrador (falta de diligencia en el entrenamiento) u operador (uso negligente). La futura Directiva UE sobre responsabilidad por IA prevé una presunción de causalidad que facilitará la acción indemnizatoria del perjudicado.
Criterios de selección de casos y fuentes
- Acceso público y contrastabilidad: se citan herramientas cuya documentación oficial o decisiones administrativas y judiciales son accesibles.
- Relevancia civil: BOSCO afecta a contratos de suministro y EPV-R condiciona medidas de protección de personas físicas.
- Carácter ilustrativo: los ejemplos muestran tipologías distintas de sesgo (exclusión económica, valoración de riesgo y discriminación laboral).
Los casos se utilizan con fines académicos y divulgativos. Su mención no implica juicio de intenciones ni de buena fe sobre las entidades responsables.
Conclusiones
Los sesgos algorítmicos desafían al Derecho Civil en tres frentes: (i) tutela de la igualdad y la transparencia, (ii) adaptación de los regímenes de responsabilidad y (iii) armonización normativa europea. Una adecuada auditoría algorítmica ex ante y el refuerzo de los derechos de información y oposición del art. 22 RGPD son claves para equilibrar innovación y protección jurídica.
Notas y referencias
- 1. MITECO, Informe de incidencias del sistema BOSCO, 25-II-2023.
- 2. Respuesta del Gobierno a la Pregunta Parlamentaria 184/2023, Boletín Oficial de las Cortes, 15-III-2023.
- 3. Agencia Vasca de Protección de Datos, Dictamen 14/2024 sobre EPV-R, 12-IV-2024.
- 4. Sentencia Audiencia Nacional (SAN) 338/2024, 7-II-2024 (JobMatch).
- 5. Comisión Europea, Propuesta de Reglamento de Inteligencia Artificial COM(2021) 206 final.