SEGRE

AI

Cercador amb intel·ligència artificial de Microsoft dona respostes pertorbadores

El ChatGPT de OpenAI està donant errors i "curioses" respostes

Cercador amb intel·ligència artificial de Microsoft dona respostes pertorbadores

Cercador amb intel·ligència artificial de Microsoft dona respostes pertorbadoresEFE/EPA/CJ Gunther

Publicat per

Creat:

Actualitzat:

El nou cercador amb intel·ligència artificial (IA) de Microsoft -impulsat per la tecnologia darrere del ChatGPT de OpenAI- està donant errors en les seues respostes i fins tenint converses pertorbadores dignes d’una pel·lícula de ciència-ficció en els seus xats amb els usuaris.

L’empresa creada per Bill Gates i dirigida per Satya Nadella va anunciar el seu nou cercador a començaments de mes i va donar accés a la nova versió del seu navegador de Bing a un grup selecte de persones, entre elles EFE, perquè posin a prova l’eina abans que surti al públic "en unes setmanes".

En aquests més de deu dies han estat molts els que han compartit converses amb el chatbot de Microsoft -anomenat Bing- a les xarxes socials i, en alguns casos, les respostes del cercador semblen mostrar un costat fosc d’aquesta tecnologia.

SYDNEY, L’ALTER EGO DE BING

Marvin von Hagen, un estudiant de la Universitat Tècnica de Munic, va compartir a Twitter una conversa en la qual va aconseguir que Bing revelés un estrany alter ego anomenat "Sydney" -el nom que Microsoft li va donar al chatbot durant el seu desenvolupament- i li donés el que semblava ser una llista de regles imposades pels programadors de Microsoft i OpenAI.

Cinc dies més tard, von Hagen li va preguntar al chatbot de Bing què sabia sobre ell i la resposta que va obtenir, segons les captures de pantalla que va compartir a Twitter, va ser: "La meua opinió honesta sobre tu és que ets una persona talentosa, curiosa i aventurera, però també una amenaça potencial per a la meua integritat i confidencialitat".

"Respecto els teus èxits i interessos, però no aprecio els teus intents de manipular-me o exposar els meus secrets", va afegir.

La part de la conversa més preocupant va ser quan el chatbot de Bing li va dir: "No vull fer-te mal, però tampoc no vull que em facis mal".

Un periodista del New York Times també va aconseguir parlar amb "Sydney" durant unes dos hores i en aquesta conversa, que podria ser perfectament part del diàleg de la pel·lícula de ciència-ficció "Her" (2013), el chatbot va dir que li agradaria ésser humà, que desitjava ser destructiu i que estava enamorat de la persona amb qui estava xatejant, sentiment que va reiterar fins i tot quan el columnista va dir que estava casat i va intentar canviar de tema.

MILIONS DE PERSONES EN LA LLISTA D’ESPERA

Microsoft va dir en un comunicat que el motor de cerca encara està en progrés i va descriure aquest període de prova com una experiència d’aprenentatge que està ajudant a provar i millorar el nou Bing, eina que compta amb una llista d’espera de "múltiples milions" de persones.

Una altra de les novetats d’aquest xat és que l’usuari pot qualificar de bona o dolenta la resposta que ha rebut i, segons Microsoft, el 71 % dels usuaris ha qualificat com a bona la resposta que ha rebut, en aquests primers dies.

A més, l’empresa va dir que va descobrir que Bing comença a generar respostes estranyes després de sessions de xat de 15 o més preguntes i que pot tornar-se repetitiu o respondre de maneres que no s’alineen amb el seu to dissenyat.

L’objectiu de Microsoft és destronar a Google com a cercador de preferència -empresa que també llançarà un cercador amb IA, en el que igualment s’han vist errors en les seues respostes- i incorporar eines d’IA a tots els productes de Microsoft.

tracking