28 maig 2024
spot_img
28 maig 2024

Intel·ligència artificial i campanyes electorals

Repassem quins són els riscos i les oportunitats que presenta la intel·ligència artificial per a la democràcia i la propaganda

El calendari de 2024 està ple de processos electorals: les eleccions al Parlament Europeu, la Presidència, el Senat i la Cambra dels Representants dels Estats Units, eleccions de la Cambra dels Comuns al Regne Unit, al Parlament de Catalunya i moltes més. Aquest cicle electoral global ha posat en el punt de mira un debat que fa temps que circula: quins són els riscos i les oportunitats que presenta la intel·ligència artificial per a la democràcia i la propaganda. 

L’any 2023 ja van aparèixer deepfakes en el context de les campanyes electorals. A Polònia, el compte de X (abans Twitter) de Platforma Obywatelska —el partit polític del primer ministre, Donald Tusk— va publicar un àudio generat amb IA del seu opositor durant la campanya electoral de les eleccions parlamentàries poloneses. També l’any 2023, als Estats Units, la campanya de Ron DeSantis va fer servir en un anunci per a la televisió un àudio generat amb intel·ligència artificial que imitava la veu de Donald Trump. 

IA en campanya

Fa unes setmanes, amb motiu de la campanya per a les eleccions al Parlament de Catalunya aquest 2024, Ciutadans va presentar un cartell electoral fet amb intel·ligència artificial. El cartell consisteix en, sota el lema “Detenlos”, un muntatge d’una encaixada de mans entre Carles Puigdemont, expresident de la Generalitat, i Pedro Sánchez, president del Govern d’Espanya. 

Un altre cas, aquest cop als Estats Units, van ser les trucades que simulaven amb intel·ligència artificial la veu del president —Joe Biden— en un missatge dirigit als habitants de New Hampshire. En la trucada, la veu de Biden demanava que no votessin a les eleccions primàries i que es guardessin el vot per al 5 de novembre, data de les eleccions generals. 

Per tal de contrarestar el que podria ser considerat com a un ús inadequat de la intel·ligència artificial, la Comissió Federal de Comunicacions ha prohibit fer servir veus generades amb IA en aquesta mena de trucades. La FCC (per les sigles en anglès) no ha estat l’únic organisme en regular els usos de la IA, el Tribunal Superior Electoral del Brasil ha prohibit l’ús d’IA per generar continguts falsos sobre les eleccions. 

Usos i riscos de la intel·ligència artificial

En termes generals, el Parlament Europeu defineix la IA com a la capacitat de les màquines per imitar tasques que duen a terme els éssers humans: el raonament, l’aprenentatge, la creativitat, la capacitat de planificar o la resolució de problemes. Aquests models aprenen patrons a partir de grans conjunts de dades (altres textos, imatges o àudios) i fan servir xarxes neuronals artificials per processar la informació amb l’objectiu de generar respostes o crear contingut original.

La intel·ligència artificial representa una forma fàcil de generar contingut, desinformació o no. Aquesta accessibilitat vol dir que qualsevol pot generar tota mena d’imatges, àudios i textos.  En el marc de les eleccions al Parlament Europeu, l’Agència de la Unió Europea per a la Ciberseguretat va expressar la seva preocupació per la introducció de la IA a l’escena electoral. Van posar l’èmfasi en els possibles efectes que aquesta eina pot tenir sobre la confiança dels votants en la integritat de les estructures d’informació. En aquest article —part d’una col·lecció sobre IA i eleccions— POLITICO parla (a partir de les dades d’IPSOS) de com la percepció de l’enteniment de la IA és més alta globalment que el coneixement sobre productes i serveis concrets. També part de la col·lecció, han creat un test per posar a prova la capacitat dels lectors de detectar continguts polítics creats amb intel·ligència artificial.

El Fake de la Setmana és un projecte conjunt de Junior Report i Verificat

Si el teu centre educatiu està interessat a treballar la desinformació a l’aula, omple aquest formulari i ens posarem en contacte amb tu.

Últimes notícies

-Contingut patrocinat -