
ALGORITMOS QUE VULNERAN DERECHOS: EL LABERINTO DE LAS RECLAMACIONES
Foto: Archivo – Todos los derechos reservados
Los algoritmos, antes invisibles, se han convertido en elementos centrales en decisiones cotidianas. Sin embargo, cuando estos sistemas automatizados fallan, discriminan o vulneran derechos, los afectados se enfrentan a un complejo proceso de reclamación, descrito por expertos como un verdadero laberinto.
Un informe de Political Watch, en colaboración con la plataforma IA ciudadana, revela que las personas afectadas por sistemas de inteligencia artificial se encuentran con normativas fragmentadas, autoridades con competencias poco claras y procedimientos que no garantizan una reparación efectiva.
El estudio analiza las vías de reclamación existentes cuando un sistema automatizado infringe derechos, identificando los principales obstáculos en el proceso.
Un sistema diseñado para supervisar, no para reparar
Aunque existe el derecho a reclamar ante un perjuicio causado por un algoritmo, el proceso implica navegar por un entramado legal e institucional complejo, sin una “ventanilla única” clara a la que dirigirse.
El análisis del marco legal internacional, europeo y español revela una regulación fragmentada. Una misma vulneración algorítmica puede estar cubierta por varias normas o no encajar plenamente en ninguna.
El diseño institucional actual prioriza el cumplimiento normativo por parte de empresas y administraciones, pero no siempre ofrece mecanismos efectivos para reparar los daños sufridos. Está más enfocado en regular el mercado que en proteger a los afectados.
Dificultad para detectar el daño y falta de indemnizaciones
Uno de los primeros obstáculos es identificar que el perjuicio proviene de un sistema de inteligencia artificial, algo complejo para personas sin conocimientos técnicos específicos.
La aplicación de tecnología afecta derechos fundamentales ya protegidos, como el derecho a no ser discriminado. Sin embargo, no siempre está claro si el afectado debe acudir a una autoridad de protección de datos, una inspección sectorial o ambas, generando incertidumbre.
La fase de resolución también presenta problemas. Las autoridades pueden determinar la vulneración de un derecho y sancionar al responsable, pero no tienen la potestad de fijar indemnizaciones, lo que obliga a iniciar nuevos procedimientos para reclamar compensaciones.
El informe destaca la dificultad para cuantificar daños derivados de vulneraciones de protección de datos, un ámbito sin criterios claros para establecer indemnizaciones.
Además, se documentan casos en los que entidades sancionadas continúan utilizando sistemas cuestionados, lo que evidencia que no siempre se corrigen los efectos de estas tecnologías.
Plazos de prescripción y falta de coordinación
El informe subraya la necesidad de revisar los procedimientos, ya que el plazo para reclamar puede agotarse mientras la autoridad resuelve el caso, impidiendo la posibilidad de obtener una compensación incluso cuando se reconoce la vulneración.
También se identifican problemas de coordinación entre organismos, ya que varias autoridades pueden recibir reclamaciones, como la Agencia Española de Protección de Datos, la Comisión Nacional de los Mercados y la Competencia (CNMC) o la autoridad competente en inteligencia artificial.
La existencia de diferentes autoridades con criterios propios puede generar conflictos sobre quién debe tramitar una reclamación.
En resumen, existen derechos digitales teóricos, pero falta una “ventanilla clara” donde los ciudadanos puedan reclamar cuando un sistema de IA les perjudica.












