REPORTAJE
Cuando la ‘realidad’ supera la ficción: de la Sagrada Familia en llamas al Papa a los campos de Aitona
Las posibilidades que ofrece la creación de contenido audiovisual mediante inteligencia artificial crecen exponencialmente cada día || Expertos y usuarios reflexionan en torno a los límites éticos de este avance tecnológico y los ‘peligros’ que puede suponer si se utiliza con fines maliciosos
¿Alguien asumió que el vídeo manipulado del arzobispo de Urgell y copríncipe de Andorra, Joan Enric Vives, en el que instaba a la ciudadanía a invertir en petróleo, era real? Salvo por algún pequeño descuadre entre el movimiento de los labios y sus palabras, las imágenes, manipuladas de manera fraudulenta con inteligencia artificial (IA), podían tener toda la apariencia de autenticidad.
¿Y la supuesta foto “comprometida” de Rosalía que se publicó en mayo de 2023 en la red X? En ese caso, la veracidad de la imagen fue mucho más difícil de descartar, pues la edición era más sencilla y el daño iba claramente dirigido a una sola persona, como una bala, a la artista de Sant Esteve Sesrovires. Ante la proliferación de este tipo de contenido, como consumidores de información –e incluso como curadores– nos surgen nuevas preocupaciones sobre aquello que podemos considerar cierto y lo que no. ¿Deberíamos dudar de todo lo que veamos? ¿Dónde termina la realidad y comienza una mera representación de esta?
El fotógrafo de Lleida Jordi V. Pou lo tiene claro: “la representación con imagen de la realidad no es la realidad en sí misma”, asegura. “El hecho único de encuadrar una u otra cosa, sin necesidad de utilizar retoques o IA, ya provoca una distorsión de la realidad” y, por ello, “debemos desconfiar de todas las imágenes que veamos”. Pou, que utiliza la IA en algunos de sus proyectos de divulgación [ver imágenes], asegura que “el hecho de que exista una foto de algo no prueba absolutamente nada”.
Solo hace 200 años que existe la suplantación de la realidad por la imagen, con la invención de los primeros procedimientos fotográficos. En ese lapso de tiempo, “hemos impuesto a la imagen una carga de realidad que no le corresponde”, declara Pou, “deberíamos liberarla”.
“Las imágenes pueden ser tan ficción como un texto y eso no tiene nada de malo. Debemos liberar a la imagen la carga de realidad que le hemos impuesto. Con la llegada de la IA, esto se evidenciará para todo el mundo.”
En un primer momento, resulta fácil tildar a la IA de “peligrosa”. Sin embargo, expertos como Manel Sanromà, matemático, profesor en la URV y presidente de CIVICAi –una asociación que aboga por el libre acceso a la IA y que su desarrollo sea ético–, sostienen que “el único componente peligroso de la IA es el uso que le podamos dar”.
De hecho, Pou determina que “el verdadero responsable del vídeo del arzobispo no es la IA, sino la persona que lo ha editado para sacar provecho del engaño”. Asimismo, el fotógrafo señala que la manipulación de las imágenes para engañar “tiene más de un siglo de historia”, por lo tanto, el hecho de que actualmente existan nuevas herramientas para hacerlo no significa que antes fuera un hecho inconcebible.
“La IA no es peligrosa en sí misma. En el futuro, superará a la mayoría de humanos y despertará cuestiones éticas que ahora ni nos imaginamos. Debemos aprovechar las posibilidades que ofrece este avance tecnológico.”
Al poco tiempo de la publicación del vídeo del arzobispo, la diócesis de Urgell se apresuró a hacer público que habían denunciado los hechos ante los Mossos d’Esquadra y que se reservaban “el derecho de ejercer las acciones legales oportunas contra sus autores”. Aunque Sanromà considera que “el arzobispo tiene todo el derecho a pedir respeto por su imagen”, admite que la única solución ante tales fechorías es “buscarse un abogado especializado y querellarse, no hay más allá”.
Paralelamente, los medios de comunicación “deben denunciar estos casos y hacer que sean noticia”, afirma Joan Teixidó, especialista en comunicación digital del grupo SEGRE. “Cuando las fake news proliferaron hace unos 5 años, costó que la sociedad interiorizara que su única razón de ser era engañar”, explica Teixidó. Esto ocurrió, en parte, porque los medios no invirtieron en recursos para “denunciarlas”. Por suerte, “hoy cuesta mucho más colar una fake new al público”, asegura, “sin embargo, son las manipulaciones maliciosas con imagen y texto las que ahora se deben integrar a nuestro imaginario colectivo como ciudadanos”.
“Los medios de comunicación no desmentimos las fake news cuando proliferaron hace unos 5 años. Ahora, debemos denunciar las manipulaciones maliciosas hechas con IA, como ocurrió con el caso del arzobispo de Urgell”.
Pero ¿se puede regular y limitar la IA?
Los expertos consultados por SEGRE difieren en cuanto a esta cuestión. Por una parte, Pou defiende que “a estas alturas, ya no hay nada que hacer, pues existen modelos de software libre que ya están instalados en miles de ordenadores” y sería imposible controlar cómo y con qué finalidad los utiliza cada usuario. Insiste en que los responsables se deben fijar correctamente, pues “se debe regular lo de siempre: las malas personas”.
En cambio, Sanromà cree que en un futuro “acabará siendo posible legislar la IA, siempre y cuando haya una gobernanza entre políticos, empresas y sociedad civil”. Insiste en que “las compañías tecnológicas deberán dedicar recursos para asegurar el buen uso de sus posibilidades” y en la importancia de que “los ciudadanos también tengan mecanismos para participar en dicha regulación, pues son usuarios últimos de la IA”.
A su vez, Teixidó propone la implementación de “un sello de calidad que indique que un contenido ha sido creado, en parte o totalmente, por IA”, como ocurre en Instagram desde hace unas pocas semanas, “para contribuir a su adaptación a nuestro entorno”. No obstante, Pou considera que dicha distinción sería “un grave error”, ya que “implicaría que todas las imágenes que no ostentaran esa marca serían reales, algo que no sería verdad, independientemente de cómo fuera la foto”.
¿Seremos capaces algún día de diferenciar imágenes creadas por IA de imágenes sin retocar?
De momento, Pou asegura que “es imposible, pues no existe ningún programa que identifique las manipulaciones”. De hecho, mientras las competencias de la tecnología crezcan, nuestra “única solución es no creernos ninguna imagen”, constata el fotógrafo. Sanromà no le ve ningún límite a las posibilidades de la IA: “esto no ha hecho más que empezar”, explica, “estamos empezando a verle las orejas al lobo, aunque este lobo es un gran avance tecnológico y la sociedad debe ponerse las pilas para aprovecharlo”.
Los tres expertos consultados por este diario coinciden en que nos encontramos en un período de transición y, como tal, son tiempos complicados. El impacto de la IA sobre nuestra cotidianidad dependerá de cómo nos adaptemos a ella.