Investigadors de l’empresa d’intel·ligència artificial OpenAI alerten d’un perill per a la humanitat
Diversos investigadors de la plantilla de l’empresa nord-americana d’intel· ligència artificial OpenAI van enviar al consell d’administració poc abans de l’acomiadament de Sam Altman com a conseller delegat una carta en la qual advertien d’un poderós descobriment d’intel·ligència artificial que, segons ells, podria amenaçar la humanitat. Segons va publicar ahir El País digital, citant l’agència de notícies Reuters i el mitjà especialitzat The Information, la vigília del seu cessament fulminant el divendres de la setmana passada, Altman va intervenir en la cimera de directius celebrada en paral·lel a la de l’Associació Econòmica Àsia Pacífic.
“Quatre vegades en la història d’OpenAI, la més recent fa només un parell de setmanes, he tingut l’oportunitat de ser a la sala en la qual empenyem el vel de la ignorància cap enrere i la frontera del descobriment cap endavant, i poder fer-ho és l’honor professional de la meua vida”, va dir allà. En principi no es va donar especial importància al comentari ni es va saber a quins desenvolupaments concrets al·ludia.
Segons The Information, alguns empleats d’OpenAI creuen que les paraules d’Altman es referien a una innovació realitzada pels investigadors de l’empresa a començaments d’aquest any que els permetria desenvolupar models d’intel·ligència artificial molt més potents.
Sam Altman torna
La directiva Mira Murati, escollida inicialment com a substituta provisional d’Altman, va esmentar un projecte anomenat Q* (pronunciat Q Star) als empleats dimecres passat i va dir que s’havia enviat una carta al consell abans de l’acomiadament d’Altman, que va ser readmès el mateix dimecres per la pressió d’empleats i inversors. Segons Murati, el fabricant de ChatGPT ha fet progressos en Q*, que alguns creuen internament que podria ser un gran avenç en la recerca de la superintel·ligència (la que supera la humana), també coneguda com a intel·ligència artificial general (AGI, per les sigles angleses). Altres fonts familiaritzades amb el projecte Q*, tanmateix, no consideren que es tracti d’un avenç trencador.
Els informàtics porten molt de temps debatent sobre el perill que suposen les màquines superintel·ligents, si es plantegessin, per exemple, que els interessa la destrucció de la humanitat.