El riesgo de seguridad de ChatGPT alerta a las empresas: "Nadie sabe qué pasa con los datos"
Grandes compañías se blindan con un modelo propio mientras los expertos insisten en la importancia de formar la plantilla
Las herramientas de inteligencia artificial generativa como ChatGPT han pasado a formar parte del día a día de muchos trabajadores cuando hace poco más de seis meses que la empresa Open AI lanzó al público una versión que ha llegado a las 10 millones de consultas al día. Los expertos avisan que se trata de un instrumento "experimental" hecho con una dinámica de 'gamificación' que no está exenta de problemas de seguridad y que ya ha provocado filtraciones en empresas como Samsung. Para evitar correr estos riesgos, las empresas han impulsado formaciones a los trabajadores. Otros, han ido más allá y han empezado a generar modelos propios, una posibilidad sólo al alcance de grandes empresas con presupuestos elevados en innovación.
OpenAI, que cuenta con Microsoft como inversor, lanzó ChatGPT al mercado a finales del 2022 y, pocos días después, ya tenía más de un millón de usuarios. Previamente, en marzo de 2021, había empezado a dar acceso al modelo de lenguaje GPT-3, el motor de la herramienta. Ahora, la nueva versión de este chat inteligente con más de 175 trillones de parámetros es capaz de generar código, de resolver ecuaciones de forma rápida o de entender y generar textos en varios idiomas.
El 'chatbot' permite conversar con lenguaje natural y con la sensación de que al otro lado hay otra persona pero no siempre es fiable y seguro, según señalan los expertos consultados por la ACN. De hecho, en abril, trabajadores de Samsung filtraron información confidencial sin saberlo utilizando ChatGPT para resolver errores de código de sus productos, tal como destapó The Economist.
Estos riesgos para la seguridad industrial han provocado que "algunos países y compañías han prohibido el uso del móvil del trabajador por cuestiones de trabajo", explica Karina Gibert, catedrática y directora del Centro de Ciencia de Datos e Inteligencia Artificial (IDEAI) de la Universidad Politécnica de Catalunya. Y es que, si se hace un mal uso, los datos confidenciales de las empresas pueden acabar en los servidores de Open AI sin que se sepa exactamente cuál es el recorrido o las protecciones que se siguen.
Otro de los problemas es que la interfaz es muy cómoda y propicia a generar una "confianza indebida" en una información que no siempre es veraz. Joan Mas Albaigès, director de la división de tecnología digital de Eurecat apunta que ChatGPT "está acondicionado por el cálculo probabilístico de la información utilizada para entrenarlo". "Tienes que ser muy crítico con los resultados. No puedes hacer copiar y pegar", ha avisado. "Aunque la lógica del discurso esté bien montada y parezca que esté bien estructurado el contenido puede no ser cierto. Si no tienes claro que está diseñado para que te pienses que hablas con una persona, corres el riesgo de acabar creyéndolo. Es importante tener control de qué información compartimos y si los canales establecidos son seguros", coincide Gibert, que también es decana del Colegio Oficial de Ingeniería Informática de Catalunya.
Ante esta realidad, una de las soluciones que se impone para no perder el potencial que ofrecen estas herramientas es hacer formaciones a los usuarios que tienen que interactuar con herramientas que se han diseñado con "un punto de gamificación" para generar "una interacción fácil y cómodo", añade la catedrática. Uno de los cursos que ha aparecido últimamente es el de 'prompt engineering' donde se aprende a hacer preguntas a la herramienta. En este sentido, algunos centros tecnológicos como Eurecat "empiezan a idear" cursos para que las empresas puedan extraer todo el valor que se pueda de herramientas como ChatGPT, que, son "una gran ayuda a la productividad porque hacen desaparecer el síndrome de la página en blanco". Albaigès, que es coordinador del Centro de Innovación en Tecnología de Datos e Inteligencia Artificial (CIADAI), considera que no se puede ignorar la existencia de esta revolución que supone la IA avanzada sino "dominarlas y llevarlas a nuestro terreno".
Otra opción es desarrollar a su propio modelo, como ha hecho la multinacional Continental, que apostará por crear su propio xatbot para sus 3.000 empleados. "Las personas utilizan ChatGPT como si fuera un amigo y olvidan que, al otro lado, se utiliza la información para entrenar la red para que mejore", apunta Pedro Ramos, director de equipos de ingenieros en Continental. Con todo, esta apuesta queda lejos de las pymes que "difícilmente tienen estas capacidades". Precisamente, este es otro motivo que complica el uso seguro de datos confidenciales en herramientas como ChatGPT es el modelo subcontratar la gestión de los datos de las empresas especializadas. "Cada vez que externalizas, estás delegando, y no es lo mismo que lo vigiles tú, que lo haga otro", ejemplariza la catedrática de la UPC.
Mercado no regulado
En este escenario de crecimiento de uso exponencial y de mercado no regulado, otras empresas como Google o Antrohpic anunciaron su intención de lanzar un modelo propio de lenguaje, Bard y Claude. Gibert señala que "uno de los problemas que tiene que el sector no esté regulado es que todos sacan cosas al mercado de cualquier manera, y se están abriendo al público herramientas experimentales, que no van con un manual de instrucciones", como es el caso de ChatGPT. Una de las consecuencias de no regular esta tecnología se puede ver en los Estados Unidos donde es legal elaborar un perfil a partir de datos de galletas no consentidas y venderlas a terceros, como headhunters o aseguradoras y puede pasar de que se usen sin decírtelo para evaluar si estás capacitado por un trabajo o si te tienen que hacer un seguro de coche o de vida.
De hecho, Catalunya fue pionera en liderar la Declaración de Barcelona de la IA en 2017, con más de 200 científicos de la comunidad internacional adheridos, haciendo un llamamiento a la prudencia para que siempre hubiera un humano supervisando las decisiones de la inteligencia artificial, después de que esta tecnología saltara de forma "insensata" al mundo productivo. La experta en inteligencia artificial de la UPC añade que "no es suficiente con la regulación, que es demasiado lenta" para afrontar las consecuencias que provoca una industria, la de la inteligencia artificial generativa, que tiene un crecimiento exponencial y podría aportar hasta 4.400 millones de euros en el 2023, según un informe del portal McKinsey.
Por eso, plantea elaborar certificaciones de datos y algoritmos que garanticen que los productos que salgan al mercado sean correctos y que se refuercen tanto los códigos deontológicos de los desarrolladores como el usuario final aprenda a ser menos naïf y no empiece a regalar datos cuando nadie sabe qué pasa" con ellas, ha añadido Gibert. Las verificaciones podrían ser similares a las que se somete la industria farmacéutica. "Antes de que las empresas de software de inteligencia artificial saquen un producto al mercado, tendría que ser probado y certificado por alguna institución porque, sino, las cosas irán a peor muy rápido", avisa Ramos. Por otra parte, tampoco queda claro a quién pertenece los resultados generados gracias a la inteligencia artificial generativa. "Hay un gran vacío legal con los temas relacionados con la propiedad intelectual", indica al director de servicios digitales de Eurecat.
Control del fraude
Para conseguir que la regulación europea de la inteligencia artificial sea efectiva, la Comisión Europea ha encargado un piloto de implantación que se hará en España a partir de octubre. Gibert es una de las expertas que participa en la revisión de estas guías que ayudarán a las empresas a aterrizar la legislación. El proceso está coordinado por la Secretaría de Estado de Digitalización. El piloto generará unos informes sobre las dificultades que las compañías encuentren en la normativa y que Europa tendrá en cuenta para redactar la regulación definitiva.
Por ejemplo, uno de los aspectos de la regulación comunitaria es la prohibición indiscriminada del reconocimiento facial. Con este piloto, se tendrá que demostrar qué mecanismos hay para detectar el uso fraudulento, uno de los principales retos a los cuales se enfrentan las autoridades. La IA no es una mesa, un coche que lo fabricas y viaja en tren o avión, pasa pruebas de certificación y aduanas cuando sale al mercado se ha probado. Es intangible, viaja por el ciberespacio donde no hay fronteras. ¿Cómo lo haremos para estar seguros de que nadie hace fraude? No será fácil", avisa la decana del Colegio Oficial de Ingeniería Informática de Catalunya. Sobre el potencial de la inteligencia artificial, Ramos ha añadido: "Puede tener el impacto de la bomba atómica o la prensa escrita, puede servir para democratizar el acceso del conocimiento o que sea tan malo que todo colapse pero está en nuestras manos decidir y creo que por primera vez a la historia la gente está siendo prudente en el momento que toca, ahora que está creciendo".