robot ia justicia derecho digital
| |

España aprieta las tuercas a la IA: nueva ley de gobernanza digital en fase de consulta

robot ia justicia derecho digital

2 Julio 2025 Publicado por Marta Arechavaleta — Abogada y analista jurídica

La regulación de la inteligencia artificial entra en una nueva fase en España. Esta semana, el Ministerio de Asuntos Económicos y Transformación Digital ha puesto en marcha la consulta pública del Anteproyecto de Ley para el uso ético y responsable de la IA. El objetivo: controlar el desarrollo tecnológico sin pisar los derechos fundamentales. Pero el texto ha abierto debate en el sector jurídico, y no precisamente por sus virtudes.

¿Qué se propone?

Esta futura ley busca implementar el Reglamento (UE) 2024/1689, también conocido como AI Act, en el ordenamiento español. En teoría, se pretende establecer garantías para un uso seguro de sistemas automatizados, proteger a las personas ante decisiones algorítmicas y promover la transparencia. Hasta aquí, todo bien.

Pero hay un punto conflictivo: la diferencia de trato entre sector público y privado. Mientras a las empresas se les impone un régimen sancionador severo (hasta 35 millones de euros por infracción grave), a la Administración solo se le exige «corregir» o «apercibir». ¿La razón? No está clara. Lo que sí está claro es que la falta de sanciones reales al Estado genera inseguridad jurídica y abre la puerta al abuso.

Obligación de etiquetar contenido generado por IA

Una de las medidas más comentadas es la obligación de etiquetar todo contenido creado por inteligencia artificial: desde vídeos hasta textos, imágenes o audios. Esta disposición, recogida en el artículo 14 del AI Act y ahora recogida también en la normativa nacional, tiene como finalidad evitar la manipulación, especialmente en contextos políticos, judiciales o comerciales. Además, queda prohibido el uso de técnicas subliminales o dirigidas a grupos vulnerables (niños, personas mayores, etc.).

Categorías de riesgo

El anteproyecto incorpora la clasificación por niveles de riesgo del Reglamento europeo:

  • Prohibidos: sistemas de puntuación social o vigilancia masiva indiscriminada.
  • Alto riesgo: IA usada en sanidad, justicia, empleo, educación o control fronterizo.
  • Riesgo limitado o mínimo: como asistentes virtuales o generadores de texto, con medidas más laxas.

Aquí es donde los juristas deberemos poner la lupa: ¿puede un sistema catalogado como “limitado” pasar a “alto riesgo” si toma decisiones autónomas sobre personas reales? Falta concreción.

Base legal en juego

  • Reglamento (UE) 2024/1689, aplicable desde agosto de 2024 y obligatorio en 2026.
  • Ley Orgánica 3/2018 (LOPDGDD), que sigue marcando el terreno para el tratamiento de datos personales y la garantía de los derechos digitales.
  • Reglamento General de Protección de Datos (UE) 2016/679, que otorga a cualquier ciudadano el derecho a no ser objeto de decisiones automatizadas sin supervisión humana.

Además, el proyecto prevé reforzar el papel de la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) y ampliar los sandboxs regulatorios para probar nuevas tecnologías bajo vigilancia.

Conclusión

La dirección es clara: Europa y España no quieren que la IA corra desbocada. Pero en el afán por regular, no podemos aceptar un doble rasero entre ciudadanos y Administración. Si pedimos responsabilidad, debe aplicarse a todos por igual. De lo contrario, el sistema perderá credibilidad antes de haber echado a andar.

Habrá que seguir el proceso parlamentario con lupa. Porque si la IA viene para quedarse, las garantías también deben ser permanentes.

🖋️ Marta Arechavaleta
Abogada y asesora jurídica

Publicaciones Similares