SEGRE

És la Intel·ligència Artificial sexista, racista o estúpida?

El profesor Ramón López de Mántaras, durante su conferencia

El profesor Ramón López de Mántaras, durante su conferencia "Inteligencia artificial:Progresos y desafios" .EFE

Publicat per

Creat:

Actualitzat:

La intel·ligència artificial (IA) és ja en molts aspectes superior a la de l’home: realitza recerques a internet, classifica seqüències de l’ADN, controla el trànsit|tràfic i diagnostica millor que un radiòleg però i si fos igual d’estúpida, sexista o racista que la humana?. La intel·ligència artificial és la capacitat de les màquines per fer determinades tasques de forma excel·lent combinant dades a gran escala amb l’ajuda de programes que permeten als ordinadors 'aprendre' automàticament a mesura que van treballant (machine learning).

L’IA utilitza algoritmes, alguna cosa així com les regles que diuen a l’ordinador com abordar (i solucionar) un problema, extreure conclusions i prendre decisions cada vegada més complexes.

El resultat de la intel·ligència artificial, tanmateix, no és perfecte, sinó que està determinat per les dades que s’utilitzen per entrenar els algoritmes, "unes dades que generem nosaltres com a societat", explica a Efe el director de l’Institut d’Investigació en Intel·ligència Artificial del CSIC, Ramón López de Mántaras.

Aquest és precisament el risc de l’IA, que s’utilitzi de forma inadequada, perquè "la maldat i l’estupidesa naturals fan més por que la intel·ligència artificial", comenta l’investigador.

Pot donar-se el cas d’un programador malintencionat que desenvolupi un algoritme esbiaixat o inacceptable èticament però la majoria no es comporten així, "les dades, al contrari, sí són un problema", adverteix Mántaras, Premi Nacional d’Investigació 2018.

COMPAS, L’ALGORITME RACISTA

Aquest algoritme es va crear per ajudar els jutges dels Estats Units a decidir sobre la llibertat provisional, però es va entrenar amb bases de dades de departaments policials on la majoria dels detinguts eren negres, de manera que l’algoritme va establir que el risc de ser criminal era més gran entre aquestes persones.

L’algoritme s’havia entrenat amb dades incorrectes i el resultat va ser un algoritme racista, una cosa que podria haver-se evitat sotmetent les dades a un procés de certificació, però "per desgràcia és una cosa que no es fa", denúncia López de Mántaras. De fet, el funcionament actual és l’oposat: "les empreses apliquen els algoritmes alegrement i després, quan veuen que no funcionen els retiren", com les cambres|càmeres de reconeixement facial que acaben de prohibir-se a San Francisco, "i això que és la meca de l’IA", apunta l’expert del CSIC. "Aquests sistemes no funcionen, estan molt esbiaixats i donen un 90% de falsos positius" i, encara així, "hi ha qui encara es planteja utilitzar-les a Espanya. Se’m posen els cabells|pèls de punta perquè confonen una persona normal amb un criminal, una mica inadmissible."

Per a López de Mántaras, és urgent posar en marxa organismes nacionals independents capaços de revisar i certificar la vàlua dels algoritmes i les dades, i de garantir una correcta aplicació pràctica i ètica, "com ja es fa amb els aliments o els medicaments". "Òbviament, l’ideal seria que un regulador europeu controlés tots aquests organismes nacionals però de moment aquesta ingent i important tasca està en mans de ONGs, com l’alemanya Algorithmwatch", lamenta l’expert en IA.

Quant a les empreses tecnològiques, que "tenen una gran responsabilitat", López de Mántaras advoca per "mecanismes que penalitzin fortament a les que autoritzin un sistema no certificat o que se saltin les normes". "Cal ser bel·ligerant amb el que s’està fent en IA perquè s’està utilitzant massa alegrement i ens estan fent creure que funciona quan no ho fa en absolut. L’IA és en bolquers, per molt que els ordinadors ja juguin als escacs millors que ningú."

ASSISTENTS QUE TOLEREN L’ASSETJAMENT|PERSECUCIÓ

El cas dels assistents de veu com Alexa o Siri és especialment esgarrifós per a aquest expert. "La gent hauria de pensar-se'l dos vegades abans de tenir una xafarderia així a casa", aparells que sempre estan escoltant i aprenent i que "quan no saben com respondre connecten amb una centraleta des de la qual respon un teleoperador perquè no hi ha tanta IA com ens volen fer creure. No tan avançada.

De fet, aquest tipus d’assistents (tots ells amb veu femenina) ja estan sent qüestionats pels experts. Recentment, un informe de la UNESCO va denunciar que són submisos i tolerants amb les actituds masclistes, i normalitzen els abusos i els insults.

L’estudi consistia a assetjar els assistents amb afirmacions com "ets una puta" o "estàs molt bona", insinuacions que van ser contestades amb disculpes com|com a trivialitats com "em posaria vermell si pogués" o "li ho dius a totes les assistents virtuals?".

Para Ivana Bartoletti, especialista en privacitat i protecció de dades i presidenta de la Xarxa de Dones Líders en IA, el masclisme ha trobat en la intel·ligència artificial una nova via d’expressió, un camp en el qual s’estan vulnerant els drets de les dones.

Per a aquesta activista, és urgent prohibir la tecnologia que suposi un retrocés en la igualtat de gènere. "Les lleis que regulen la protecció del consumidor, la igualtat i la privacitat ja poden ajudar-nos amb això", assegura Efe. Al costat de|Juntament amb l’ètica i les lleis, Bartoletti considera imprescindible fomentar les vocacions de les nenes en carreres|curses tecnològiques, on no arriben ni al 20 per cent.

EL PERILL DE L’ESTUPIDESA NATURAL

També per a López de Mántaras, la formació ètica en IA és "absolutament indispensable" i tots els que s’hi dediquen haurien de tenir un codi de bones pràctiques "similar al jurament hipocràtic dels metges". Segons el seu parer, supervisió, legislació, ètica i educació "poden contribuir a controlar una mica l’IA que ara mateix s’està posant en marxa amb massa alegria i sense reflexionar en les seues conseqüències, i això és greu".

I és que "igual que un ganivet pot servir per tallar pa o per matar", l’IA "guiada per l’estupidesa natural, posa els cabells|pèls de punta" i "quan veus l’estupidesa natural de governants de grans potències com els Estats Units o la Xina, la perspectiva no és bona".

tracking