Grandes tecnológicas unen fuerzas contra deepfakes: Google, Meta y OpenAI implementarán medidas para detectar contenido de inteligencia artificial
Las compañías tecnológicas líderes buscan combatir la desinformación y proteger elecciones con etiquetas que identificarán contenido generado artificialmente
En respuesta a la creciente amenaza de desinformación y el riesgo asociado con deepfakes, Google, Meta (anteriormente Facebook) y OpenAI han revelado recientemente diversas iniciativas para facilitar la identificación de imágenes y archivos generados por inteligencia artificial (IA). Estas acciones buscan prevenir la propagación de mensajes falsos que podrían influir en resultados electorales y tener consecuencias imprevistas.
Las tres compañías, que ya habían anunciado su compromiso de evitar el uso de IA en los procesos electorales de 2024, se han unido a la Coalición para la Procedencia y Autenticidad de Contenido (C2PA). Esta coalición propone un certificado estándar y cuenta con la participación de diversas industrias, incluyendo medios de comunicación como la BBC y The New York Times, así como bancos y fabricantes de cámaras.
Aunque reconocen que no existe una solución única y eficaz en todos los casos, las empresas están explorando diferentes enfoques. Desde marcas visibles en las imágenes hasta mensajes ocultos en los metadatos de archivos o píxeles generados artificialmente. Google, con su herramienta SynthID aún en fase beta, afirma haber encontrado un método para identificar audios generados por IA.
El estándar C2PA, utilizado para introducir información en los metadatos de la imagen, presenta debilidades técnicas, según desarrolladores. OpenAI, que implementará C2PA en Dall-3, su generador de imágenes, advierte sobre la limitación de los metadatos para abordar cuestiones de procedencia, destacando su fácil eliminación accidental o intencionada.
Aunque las empresas no proporcionan plazos claros para la implementación completa de estas medidas, reconocen la urgencia, especialmente en un año lleno de citas electorales importantes. Meta se compromete a etiquetar visualmente las imágenes generadas por sus herramientas de IA y a detectar aquellas que se compartan en sus redes, como Instagram, Facebook y Threads. Google aplicará sus métodos en YouTube, buscando asegurar la integridad del contenido ante posibles manipulaciones.
A pesar de representar avances técnicos actuales, las compañías reconocen la necesidad de adaptarse continuamente a medida que evoluciona la amenaza de deepfakes, con Google confiando en que su método con SynthID pueda resistir modificaciones voluntarias para ocultarlo.