SEGRE

El risc de seguretat de ChatGPT alerta les empreses: "Ningú sap què passa amb les dades"

Grans companyies es blinden amb un model propi mentre els experts insisteixen en la importància de formar la plantilla

Un usuari entra a ChatGPT.

Un usuari entra a ChatGPT.Aina Martí / ACN

Publicat per

Creat:

Actualitzat:

Les eines d'intel·ligència artificial generativa com ChatGPT han passat a formar part del dia a dia de molts treballadors quan fa poc més de sis mesos que l'empresa Open AI va llançar al públic una versió que ha arribat a les 10 milions de consultes al dia. Els experts avisen que es tracta d'un instrument "experimental" fet amb una dinàmica de 'gamificació' que no està exempta de problemes de seguretat i que ja ha provocat filtracions a empreses com Samsung. Per evitar córrer aquests riscos, les empreses han impulsat formacions als treballadors. D'altres, han anat més enllà i han començat a generar models propis, una possibilitat només a l'abast de grans empreses amb pressupostos elevats en innovació.

OpenAI, que compta amb Microsoft com a inversor, va llançar ChatGPT al mercat a finals del 2022 i, pocs dies després, ja tenia més d'un milió d'usuaris. Prèviament, el març del 2021, havia començat a donar accés al model de llenguatge GPT-3, el motor de l'eina. Ara, la nova versió d'aquest xat intel·ligent amb més de 175 trilions de paràmetres és capaç de generar codi, de resoldre equacions de forma ràpida o d'entendre i generar textos en diversos idiomes.

El 'chatbot' permet conversar amb llenguatge natural i amb la sensació que a l'altre costat hi ha una altra persona però no sempre és fiable i segur, segons assenyalen els experts consultats per l'ACN. De fet, a l'abril, treballadors de Samsung van filtrar informació confidencial sense saber-ho utilitzant ChatGPT per resoldre errors de codi dels seus productes, tal com va destapar The Economist.

Aquests riscos per la seguretat industrial han provocat que "alguns països i companyies han prohibit l'ús del mòbil del treballador per qüestions de feina", explica Karina Gibert, catedràtica i directora del Centre de Ciència de Dades i Intel·ligència Artificial (IDEAI) de la Universitat Politècnica de Catalunya. I és que, si se'n fa un mal ús, les dades confidencials de les empreses poden acabar en els servidors d'Open AI sense que se sàpiga ben bé quin és el recorregut o les proteccions que se segueixen.

Un altre dels problemes és que la interfície és molt còmode i propicia a generar una "confiança indeguda" en una informació que no sempre és veraç. Joan Mas Albaigès, director de la divisió de tecnologia digital d'Eurecat apunta que ChatGPT "està condicionat pel càlcul probabilístic de la informació utilitzada per entrenar-lo". "Has de ser molt crític amb els resultats. No pots fer copiar i enganxar", ha avisat. "Encara que la lògica del discurs estigui ben muntada i sembli que estigui ben estructurat el contingut pot no ser cert. Si no tens clar que està dissenyat perquè et pensis que parles amb una persona, corres el risc d'acabar-ho creient. És important tenir control de quina informació compartim i si els canals establerts són segurs", coincideix Gibert, que també és degana del Col·legi Oficial d'Enginyeria Informàtica de Catalunya.

Davant d'aquesta realitat, una de les solucions que s'imposa per no perdre el potencial que ofereixen aquestes eines és fer formacions als usuaris que han d'interactuar amb eines que s'han dissenyat amb "un punt de gamificació" per generar "una interacció fàcil i còmode", afegeix la catedràtica. Un dels cursos que ha aparegut últimament és el de 'prompt engineering' on s'aprèn a fer preguntes a l'eina. En aquest sentit, alguns centres tecnològics com Eurecat estan "començant a idear" cursos perquè les empreses puguin extreure tot el valor que es pugui d'eines com ChatGPT, que, són "un gran ajut a la productivitat perquè fan desaparèixer la síndrome de la pàgina en blanc". Albaigès, que és coordinador del Centre d'Innovació en Tecnologia de Dades i Intel·ligència Artificial (CIADAI), considera que no es pot ignorar l'existència d'aquesta revolució que suposa la IA avançada sinó "dominar-les i portar-les al nostre terreny".

Una altra opció és desenvolupar el seu propi model, com ha fet la multinacional Continental, que apostarà per crear el seu propi xatbot per als seus 3.000 empleats. "Les persones fan servir ChatGPT com si fos un amic i obliden a, a l'altre costat, es fa servir la informació per entrenar la xarxa perquè millori", apunta Pedro Ramos, director d'equips d'enginyers a Continental. Amb tot, aquesta aposta queda lluny de les pimes que "difícilment tenen aquestes capacitats". Precisament, aquest és un altre motiu que complica l'ús segur de dades confidencials en eines com ChatGPT és el model de subcontractar la gestió de les dades de les empreses especialitzades. "Cada vegada que externalitzes, estàs delegant, i no és el mateix que ho vigilis tu, que ho faci un altre", exemplifica la catedràtica de la UPC.

Mercat no regulat

En aquest escenari de creixement d'ús exponencial i de mercat no regulat, altres empreses com Google o Antrohpic van anunciar la seva intenció de llançar un model propi de llenguatge, Bard i Claude. Gibert assenyala que "un dels problemes que té que el sector no estigui regulat és que tots treuen coses al mercat de qualsevol manera, i s'estan obrint al públic eines experimentals, que no van amb un manual d'instruccions", com és el cas de ChatGPT. Una de les conseqüències de no regular aquesta tecnologia es pot veure als Estats Units on és legal elaborar un perfil a partir de dades de galetes no consentides i vendre-les a tercers, com headhunters o asseguradores i pot passar que s'usin sense dir-t'ho per avaluar si estàs capacitat per una feina o si t'han de fer una assegurança de cotxe o de vida.

De fet, Catalunya va ser pionera a liderar la Declaració de Barcelona de la IA el 2017, amb més de 200 científics de la comunitat internacional adherits, fent una crida a la prudència perquè sempre hi hagués un humà supervisant les decisions de la intel·ligència artificial, després que aquesta tecnologia saltés de forma "insensata" al món productiu. L'experta en intel·ligència artificial de la UPC afegeix que "no n'hi ha prou amb la regulació, que és massa lenta" per afrontar les conseqüències que provoca una indústria,, la de la intel·ligència artificial generativa, que té un creixement exponencial i podria aportar fins a 4.400 milions d'euros el 2023, segons un informe del portal McKinsey.

Per això, planteja elaborar certificacions de dades i algorismes que garanteixin que els productes que surtin al mercat siguin correctes i que es reforcin tant els codis deontològics dels desenvolupadors com que l'usuari final aprengui a ser menys naïf i no comenci "a regalar dades quan ningú sap què passa" amb elles, ha afegit Gibert. Les verificacions podrien ser similars a les que se sotmet la indústria farmacèutica. "Abans que les empreses de software d'intel·ligència artificial treguin un producte al mercat, hauria de ser provat i certificat per alguna institució perquè, sinó, les coses aniran a pitjor molt ràpid", avisa Ramos. D'altra banda, tampoc queda clar a qui pertany els resultats generats gràcies a la intel·ligència artificial generativa. "Hi ha un gran buit legal amb els temes relacionats amb la propietat intel·lectual", indica el director de serveis digitals d'Eurecat.

Control del frau

Per aconseguir que la regulació europea de la intel·ligència artificial sigui efectiva, la Comissió Europea ha encarregat un pilot d'implantació que es farà a Espanya a partir de l'octubre. Gibert és una de les expertes que participa en la revisió d'aquestes guies que ajudaran les empreses a aterrar la legislació. El procés està coordinat per la Secretaria d'Estat de Digitalització. El pilot generarà uns informes sobre les dificultats que les companyies trobin en la normativa i que Europa tindrà en compte per redactar la regulació definitiva.

Per exemple, un dels aspectes de la regulació comunitària és la prohibició indiscriminada del reconeixement facial. Amb aquest pilot, s'haurà de demostrar quins mecanismes hi ha per detectar l'ús fraudulent, un dels principals reptes als quals s'enfronten les autoritats. "La IA no és una taula, un cotxe que el fabriques i viatja amb tren o avió, passa proves de certificació i duanes quan surt al mercat s'ha provat. És intangible, viatge pel ciberespai on no hi ha fronteres. Com ho farem per estar segurs que ningú fa frau? No serà fàcil", avisa la degana del Col·legi Oficial d'Enginyeria Informàtica de Catalunya. Sobre el potencial de la intel·ligència artificial, Ramos ha afegit: "Pot tenir l'impacte de la bomba atòmica o la premsa escrita, pot servir per democratitzar l'accés del coneixement o que sigui tan dolent que tot col·lapsi però és a les nostres mans decidir i crec que per primer cop a la història la gent està sent prudent en el moment que toca, ara que està creixent".

tracking