España aprieta las tuercas a la IA: nueva ley de gobernanza digital en fase de consulta

2 Julio 2025 Publicado por Marta Arechavaleta — Abogada y analista jurídica —
La regulación de la inteligencia artificial entra en una nueva fase en España. Esta semana, el Ministerio de Asuntos Económicos y Transformación Digital ha puesto en marcha la consulta pública del Anteproyecto de Ley para el uso ético y responsable de la IA. El objetivo: controlar el desarrollo tecnológico sin pisar los derechos fundamentales. Pero el texto ha abierto debate en el sector jurídico, y no precisamente por sus virtudes.
¿Qué se propone?
Esta futura ley busca implementar el Reglamento (UE) 2024/1689, también conocido como AI Act, en el ordenamiento español. En teoría, se pretende establecer garantías para un uso seguro de sistemas automatizados, proteger a las personas ante decisiones algorítmicas y promover la transparencia. Hasta aquí, todo bien.
Pero hay un punto conflictivo: la diferencia de trato entre sector público y privado. Mientras a las empresas se les impone un régimen sancionador severo (hasta 35 millones de euros por infracción grave), a la Administración solo se le exige «corregir» o «apercibir». ¿La razón? No está clara. Lo que sí está claro es que la falta de sanciones reales al Estado genera inseguridad jurídica y abre la puerta al abuso.
Obligación de etiquetar contenido generado por IA
Una de las medidas más comentadas es la obligación de etiquetar todo contenido creado por inteligencia artificial: desde vídeos hasta textos, imágenes o audios. Esta disposición, recogida en el artículo 14 del AI Act y ahora recogida también en la normativa nacional, tiene como finalidad evitar la manipulación, especialmente en contextos políticos, judiciales o comerciales. Además, queda prohibido el uso de técnicas subliminales o dirigidas a grupos vulnerables (niños, personas mayores, etc.).
Categorías de riesgo
El anteproyecto incorpora la clasificación por niveles de riesgo del Reglamento europeo:
- Prohibidos: sistemas de puntuación social o vigilancia masiva indiscriminada.
- Alto riesgo: IA usada en sanidad, justicia, empleo, educación o control fronterizo.
- Riesgo limitado o mínimo: como asistentes virtuales o generadores de texto, con medidas más laxas.
Aquí es donde los juristas deberemos poner la lupa: ¿puede un sistema catalogado como “limitado” pasar a “alto riesgo” si toma decisiones autónomas sobre personas reales? Falta concreción.
Base legal en juego
- Reglamento (UE) 2024/1689, aplicable desde agosto de 2024 y obligatorio en 2026.
- Ley Orgánica 3/2018 (LOPDGDD), que sigue marcando el terreno para el tratamiento de datos personales y la garantía de los derechos digitales.
- Reglamento General de Protección de Datos (UE) 2016/679, que otorga a cualquier ciudadano el derecho a no ser objeto de decisiones automatizadas sin supervisión humana.
Además, el proyecto prevé reforzar el papel de la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) y ampliar los sandboxs regulatorios para probar nuevas tecnologías bajo vigilancia.
Conclusión
La dirección es clara: Europa y España no quieren que la IA corra desbocada. Pero en el afán por regular, no podemos aceptar un doble rasero entre ciudadanos y Administración. Si pedimos responsabilidad, debe aplicarse a todos por igual. De lo contrario, el sistema perderá credibilidad antes de haber echado a andar.
Habrá que seguir el proceso parlamentario con lupa. Porque si la IA viene para quedarse, las garantías también deben ser permanentes.
🖋️ Marta Arechavaleta
Abogada y asesora jurídica