SEGRE

Una ley obligará a identificar contenidos creados con IA y fija sanciones de hasta 35 millones

El gobierno establece sanciones de hasta 35 millones de euros para combatir el uso perverso de la inteligencia artificial y proteger los derechos digitales

El ministro para la Transformación Digital y de la Función Pública, Óscar López, durante la rueda de prensa posterior a la reunión del Consejo de Ministros celebrado en La Moncloa. 

El ministro para la Transformación Digital y de la Función Pública, Óscar López, durante la rueda de prensa posterior a la reunión del Consejo de Ministros celebrado en La Moncloa. EFE MAriscal

Publicado por
efe

Creado:

Actualizado:

El gobierno español ha dado luz verde este martes a un anteproyecto de ley que obligará a identificar claramente todos los contenidos generados con inteligencia artificial (IA), estableciendo un régimen sancionador que contempla multas de hasta 35 millones de euros o el 7% de la facturación anual para quienes utilicen estas tecnologías de manera fraudulenta. La iniciativa, aprobada por el Consejo de Ministros, busca garantizar un desarrollo ético y responsable de la IA en España, alineándose con el marco regulatorio europeo.

La denominada 'Ley para el buen uso y la gobernanza de la inteligencia artificial' pretende establecer un marco normativo que permita aprovechar las ventajas de esta tecnología emergente mientras se protegen los derechos fundamentales de los ciudadanos. Según explicó Óscar López, ministro para la Transformación Digital y de la Función Pública, la inteligencia artificial representa "un poderoso instrumento que puede favorecer el crecimiento económico" y contribuir a campos como la medicina, pero también podría convertirse en "una herramienta para difundir bulos, expandir el odio y atacar a la democracia" si no se regula adecuadamente.

Prácticas prohibidas y sistemas de alto riesgo

El anteproyecto de ley, en consonancia con el reglamento europeo, establece una serie de prácticas totalmente prohibidas en el ámbito de la IA. Entre ellas destacan el uso de técnicas subliminales para manipular decisiones sin consentimiento expreso del usuario, como podría ser el caso de un 'chatbot' que identifica personas con adicción al juego y las incita a acceder a plataformas de apuestas mediante estímulos imperceptibles.

Asimismo, la normativa prohibirá explícitamente la explotación de vulnerabilidades relacionadas con características personales como la edad, la discapacidad o la situación socioeconómica para alterar comportamientos que puedan provocar perjuicios. Un ejemplo mencionado por el ministro López sería el de "un juguete infantil habilitado con IA que anime a los niños a completar retos potencialmente peligrosos para su integridad física".

Otros usos prohibidos incluyen la clasificación biométrica de personas según su raza, orientación política, religiosa o sexual, así como sistemas de puntuación social basados en comportamientos o características personales que puedan utilizarse para discriminar en el acceso a servicios, subvenciones o préstamos. También se vetará la valoración del riesgo delictivo de una persona basándose exclusivamente en datos como su historial familiar, nivel educativo o lugar de residencia.

El régimen sancionador: multas millonarias para infracciones graves

Las sanciones previstas para quienes incumplan estas prohibiciones serán contundentes, oscilando entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial de la empresa infractora. No obstante, el anteproyecto contempla cierta flexibilidad para las pymes, que podrían enfrentar sanciones de menor cuantía.

En cuanto a la supervisión del cumplimiento normativo, el ministro López ha señalado que la vigilancia de los sistemas prohibidos recaerá en diversas autoridades según su ámbito de aplicación: la Agencia Española de Protección de Datos se encargará de los sistemas biométricos y de gestión de fronteras; el Consejo General del Poder Judicial supervisará los sistemas de IA en el ámbito de la justicia; la Junta Electoral Central vigilará aquellos que afecten a procesos democráticos; y la Agencia Española de Supervisión de la Inteligencia Artificial asumirá la responsabilidad sobre el resto de casos.

La lucha contra los 'deepfakes' y la desinformación

Uno de los aspectos más relevantes de la nueva normativa es la obligación de etiquetar correctamente cualquier contenido audiovisual generado o manipulado mediante IA. Esta medida busca combatir directamente el fenómeno de la "ultrasuplantación" o "deepfake", que consiste en la creación de imágenes, audios o vídeos sintéticos que muestran a personas reales o ficticias en situaciones o realizando acciones que nunca ocurrieron.

No cumplir con esta obligación de etiquetado se considerará una infracción grave, sujeta a importantes sanciones económicas que podrían alcanzar los 7,5 millones de euros o hasta el 3% del volumen de negocio mundial de la empresa responsable.

La aprobación de este anteproyecto coincide temporalmente con una polémica generada por el Partido Popular, que recientemente difundió a través de redes sociales dos vídeos creados con inteligencia artificial. El primero, titulado "La isla de las corrupciones", fue posteriormente retirado tras las protestas formales de la República Dominicana, ya que utilizaba imágenes del país caribeño para criticar supuestos casos de corrupción del PSOE. El segundo vídeo, publicado coincidiendo con el Día Internacional de la Mujer bajo el título "La manifestación que no verás hoy", mostraba imágenes virtuales de varios dirigentes de izquierdas y de la esposa del presidente del Gobierno, incluyendo una escena controversial donde aparecían Pedro Sánchez y el exministro José Luis Ábalos con un supuesto "catálogo" de mujeres.

El potencial económico de la inteligencia artificial en España

Durante su comparecencia, el ministro López también destacó las conclusiones de un informe sobre la implementación de la inteligencia artificial en España, que pronostica un posible crecimiento del PIB nacional de hasta un 8% -equivalente a más de 100.000 millones de euros- en la próxima década si esta tecnología se aplica correctamente.

Este potencial de crecimiento evidencia la importancia estratégica de contar con un marco regulatorio equilibrado, que permita aprovechar las oportunidades económicas que ofrece la IA sin comprometer los derechos fundamentales ni la seguridad de los ciudadanos.

¿Qué sistemas de IA serán considerados de alto riesgo?

La nueva legislación establece una categoría específica para los denominados "sistemas de alto riesgo", que estarán sujetos a requisitos adicionales de seguridad y transparencia. En esta categoría se incluyen todos aquellos sistemas que se incorporen como elementos de seguridad en productos industriales, juguetes, equipos radioeléctricos o productos sanitarios.

También se considerarán de alto riesgo los sistemas utilizados para garantizar derechos fundamentales en ámbitos como migración, asilo y control fronterizo; los empleados en la administración de justicia; y aquellos que puedan influir en procesos democráticos.

El incumplimiento de los requisitos establecidos para estos sistemas de alto riesgo también conllevará sanciones significativas, que oscilarán entre los 500.000 euros y los 7,5 millones, o hasta el 2% o 3% del volumen de negocio mundial de la empresa responsable, dependiendo de la gravedad de la infracción.

¿Cómo afectará esta ley a empresas y usuarios?

La nueva normativa supondrá un cambio significativo en la forma en que las empresas desarrollan y comercializan soluciones basadas en inteligencia artificial en España. Las compañías deberán implementar mecanismos para garantizar la transparencia de sus sistemas, especialmente en lo relativo al etiquetado de contenidos generados artificialmente.

Para los usuarios, la ley pretende ofrecer mayor protección y claridad, permitiéndoles "diferenciar con nitidez los contenidos que son reales de los que son virtuales", según palabras del ministro López. Este aspecto resulta particularmente relevante en un contexto de creciente preocupación por la desinformación y las fake news potenciadas por tecnologías de IA cada vez más sofisticadas.

El anteproyecto se enmarca en lo que el ministro ha denominado "escudo europeo" de protección de derechos digitales, complementándose con otras iniciativas legislativas como el anteproyecto de ley de servicios digitales y medios de comunicación, y adaptando la legislación española al reglamento europeo de Inteligencia Artificial, que ya se encuentra en vigor.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking