La ley europea para regular la inteligencia artificial entra en vigor: las primeras medidas se aplicarán en seis meses
La ley europea para regular la inteligencia artificial ha entrado en vigor este jueves. Después de que la Eurocámara y el Consejo de la Unión Europea dieran el visto bueno final para su puesta en marcha y el texto fuera publicado en el Diario Oficial de la Unión Europea, la cuenta atrás para aplicar las medidas ha empezado. La mayoría de ellas se tendrán que aplicar a partir del 2 de agosto de 2026, aunque algunas se pondrán en marcha dentro de seis meses. Les medidas de aplicación más inmediatas hacen referencia a la prohibición de los sistemas de inteligencia artificial que presenten "riesgos inaceptables".
Para el periodo de transición previo a la aplicación de la ley, la Comisión Europea ha puesto en marcha el Pacto de la IA, una iniciativa que invita en los diferentes agentes desarrolladores de herramientas de inteligencia artificial a adoptar voluntariamente las obligaciones que contempla la ley antes de que expiren los plazos legales.
Al mismo tiempo, el ejecutivo comunitario ha abierto una convocatoria para que las partes interesadas presenten sus opiniones de cara a la elaboración del primer Código de Prácticas de la inteligencia artificial.
Una ley pionera en el mundo
La nueva norma, pionera a nivel global, tiene como objetivo regular la inteligencia artificial según el nivel de peligro que supone. Los sistemas que presenten "riesgos limitados" estarán sujetos a unas obligaciones de transparencia más laxas, mientras que los que supongan "riesgos elevados" sólo se podrán utilizar bajo autorización y cumpliendo una serie de requisitos.
Herramientas que pueden influir en la conducta de los individuos o los sistemas de puntuación social quedarán prohibidos porque su riesgo se considera "inaceptable", así como aquellos programas que utilizan datos biométricos para categorizar personas en función de su religión o su orientación sexual.
Sólo se aceptarán excepciones en campos la defensa o la investigación, y siempre bajo autorización judicial, como por ejemplo para prevenir amenazas terroristas o combatir el tráfico de personas.
En el caso de los sistemas de inteligencia artificial generativa, como ChatGPT, estos tendrán que especificar si un contenido está generado a través de inteligencia artificial. En la norma también se identifican sistemas de riesgo que sólo se podrán comercializar si los desarrolladores garantizan que respetan los derechos fundamentales.
Al mismo tiempo, la norma también busca impulsar la industria europea ante potencias como los Estados Unidos o China.