LEYES
La Eurocámara se opone a la vigilancia en tiempo real y regula los sistemas GPT
Hoy se ha votado la primera ley sobre Inteligencia Artificial, que quiere proteger a las personas de los riesgos que conlleva. El texto considera un riesgo alto el chat GPT y algunas aplicaciones
El Parlamento Europeo se ha opuesto este miércoles a la vigilancia biométrica en tiempo real y ha impuesto condiciones para los nuevos sistemas como ChatGPT, al aprobar la ley de inteligencia artificial que se está negociando en Bruselas para impulsar su desarrollo, limitando a su vez los posibles riesgos. Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara ha fijado así su posición de cara a las negociaciones que empezarán hoy con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley y que continuarán bajo la presidencia rotatoria que España asumirá el 1 de julio.
Entre las demandas del Parlamento Europeo está la de prohibir la vigilancia biométrica en tiempo real en espacios públicos, en contra de lo que han defendido el Ejecutivo comunitario y los países de la UE, que apuestan por permitirla si la autoriza un juez, en casos muy específicos.
GPT
En pleno debate sobre la necesidad de regular los sistemas que son capaces de generar texto y material audiovisual, el Parlamento quiere que sus desarrolladores demuestren que han reducido los riesgos que la tecnología pueda generar a la salud, a los derechos fundamentales y al sistema democrático. Los eurodiputados también quieren que los usuarios que utilicen esta tecnología para generar imágenes falsas ('deep fakes') especifiquen que el contenido se ha manipulado mediante inteligencia artificial.
Asimismo, piden que los desarrolladores de estos sistemas expliquen de forma "suficientemente detallada" qué datos protegidos por derechos de autor han utilizado para entrenar a la inteligencia artificial.
IDENTIFICACIÓN BIOMÉTRICA
El Parlamento Europeo se ha opuesto a la utilización de los sistemas de identificación biométrica en tiempo real en espacios públicos. Los eurodiputados, no obstante, sí abrieron la puerta a poderlos utilizar a posteriori, siempre con autorización judicial, para perseguir "delitos graves". La Eurocámara ha rechazado así la enmienda del Partido Popular Europeo, más laxa con la protección de los derechos fundamentales.
El PPE se mostró a favor de poder utilizar estos sistemas, con permiso de un juez, para buscar a personas desaparecidas (incluidos los menores), para prevenir un atentado terrorista y para localizar a quienes hayan cometido un delito que acarree al menos tres años de prisión.
ALTO RIESGO
La normativa califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.
Tras un voto que la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager, ha calificado de "histórico", empezarán las negociaciones entre las tres instituciones europeas para pactar el texto definitivo de la ley. En caso de que las negociaciones concluyesen este año, la norma no se empezaría a aplicar hasta 2026, por lo que Bruselas ha propuesto un pacto entre las grandes tecnológicas para etiquetar de forma inmediata todo el contenido falso que se genere con inteligencia artificial.