Un joc digital ensenya els joves a qüestionar l’ètica de la intel·ligència artificial
Ètica en Joc, iniciativa d’EduTech Clúster, utilitza la simulació perquè estudiants i professionals aprenguin a detectar biaixos, prendre decisions responsables i comprendre l’impacte social de la tecnologia
El que semblava propi de la ciència-ficció, avui dia és una realitat i ja veiem com la intel·ligència artificial (IA) ens acompanya en les tasques més diverses. Els algoritmes decideixen quina música escoltem, quins vídeos ens apareixen a les xarxes socials i fins i tot qui pot aconseguir una feina o un préstec al banc. Però davant d’aquesta realitat sorgeix un dubte sobre l’objectivitat d’aquests sistemes. Són realment neutrals o poden tenir prejudicis i cometre injustícies?
Per respondre a aquestes preguntes ha nascut Ètica en Joc, un projecte educatiu pioner impulsat per l’EduTech Clúster i finançat pel Pla de Recuperació, Transformació i Resiliència (PRTR) de la Unió Europea – Next Generation EU, amb el suport de la Generalitat de Catalunya, Departament d’Empresa i Treball. Aquest projecte té com a objectiu que els estudiants aprenguin a ser crítics i a qüestionar la tecnologia que usen.
Al llarg de diversos mesos, estudiants, docents i professionals del sector tecnològic han participat en aquesta competició digital on han observat com funciona la intel·ligència artificial per entendre com les nostres decisions humanes afecten les màquines.
El mite de la neutralitat tecnològica
Sovint pensem que, com que la IA es basa en dades i matemàtiques, les seves respostes són sempre correctes i neutrals. Però la realitat és molt diferent. Una IA aprèn del que nosaltres li ensenyem, i si les dades que rep contenen biaixos (prejudicis de gènere, de raça o de classe), la màquina els acabarà repetint i amplificant.
Per això resulta tan important desenvolupar un pensament crític que ens permeti ser conscients de les conseqüències socials que té allò que programem. Això és el que proposa el projecte Ètica en Joc. En lloc de llegir manuals teòrics, els participants en aquesta iniciativa han pogut aprendre “fent“. Mitjançant una plataforma digital interactiva, s’han enfrontat a tres grans reptes que simulen situacions del món real on la IA té un paper clau.
El primer repte s’ha centrat en la justícia i l’equitat. Els alumnes han hagut de construir models que prediuen resultats, però aviat han vist que un sistema pot ser molt precís matemàticament però, al mateix temps, molt injust si discrimina certs col·lectius.
El segon repte posa el foc en la sostenibilitat. Crear i entrenar grans models de IA consumeix quantitats enormes d’energia i aigua. Aquí, els jugadors han hagut de trobar l’equilibri entre tenir una tecnologia potent i ser responsables amb el medi ambient i la societat.
Finalment, el tercer repte ha tractat la transparència. Qui és el responsable quan un algoritme s’equivoca? Com podem explicar una decisió que ha pres una màquina? Aquest exercici ensenya que els humans hem de mantenir sempre el control i la supervisió del que fan els sistemes intel·ligents.
Una brúixola moral
Una de les novetats d’aquesta experiència és que no guanyava qui creava l’algoritme més ràpid o potent, sinó qui aconseguia un millor equilibri ètic. El sistema utilitza el que anomenen una “brúixola moral“.
Aquest mètode de puntuació valora diferents dimensions, com la precisió tècnica, la igualtat i la sostenibilitat. Si un participant creava una solució molt eficient però que era injusta, el sistema el penalitzava. D’aquesta manera, l’èxit ja no es defineix només per “funcionar”, sinó per “funcionar bé per a tothom“.
Tecnologia accessible per a tothom
Per participar en aquest projecte no calia ser un expert en informàtica ni saber codi complicat. S’han creat més de 30 aplicacions intuïtives, amb botons, barres lliscants i menús senzills, perquè qualsevol persona pugui interactuar amb la IA.
D’aquesta manera, perfils molt diversos han pogut opinar sobre el futur de la tecnologia. En un món on els algoritmes cada vegada tenen més pes, és vital que tota la ciutadania, i especialment els joves, tinguin les eines per entendre i auditar aquestes “caixes negres“.
Ètica en Joc demostra que la millor manera d’entendre la tecnologia és experimentar-hi, equivocar-se i reflexionar sobre els errors. El projecte ha format futurs professionals del sector tecnològic, però també ha format ciutadans informats que no es deixaran enganyar per una pantalla.
Val la pena recordar que la intel·ligència artificial és una eina creada per humans i, com a tal, ha de reflectir valors com la transparència, l’equitat i el respecte pel planeta.
