Grans mentides creades amb intel·ligència artificial
La IA multiplica la difusió de continguts falsos i planteja nous reptes per a la verificació de la informació. T’expliquem algunes de les deepfakes més virals i els seus protagonistes
Sabies que a principis dels anys trenta els diaris de tot el món van publicar una imatge on presumptament es veia el monstre del llac Ness? La fotografia resultava ser la d’un submarí amb una serp de joguina que sobresortia de l’aigua, però el rumor es va fer tan creïble que avui dia encara n’hi ha que busquen aquest misteriós animal.
De fake news, notícies falses o rumors que no s’han confirmat i que recorren a gran velocitat, n’hi ha hagut sempre. Fins i tot, n’hi ha que han determinat el curs d’alguns esdeveniments històrics. Els últims anys, amb internet i l’aparició de les xarxes socials, la desinformació ha adquirit noves modalitats en forma de deepfakes que fan que els continguts falsos siguin cada cop més realistes i difícils de detectar.
A aquest escenari cal afegir-hi la irrupció de la intel·ligència artificial, a partir de la qual es poden crear i manipular imatges, àudios o vídeos que resulten molt creïbles i generen molta confusió entre els usuaris. Per comprendre millor com i en quin context s’utilitzen aquestes notícies falses, analitzem alguns exemples de fakes generades amb IA que han circulat massivament per la xarxa.
El papa Francesc i l’abric de Balenciaga
A principis del 2023, un usuari de la xarxa de notícies Reddit va penjar una imatge on es veia el papa Francesc vestint un sofisticat abric llarg de plomes de la marca Balenciaga. La fotografia, generada amb IA, semblava molt real de manera que va decidir pujar-la a la xarxa X. Amb poc temps va aconseguir més de 27 milions de visualitzacions i va arribar a desenes de milers de comptes que compartien la imatge amb l’etiqueta “#papamodern”.
Aquesta fotografia, aparentment feta sense mala intenció, va fer reflexionar sobre la capacitat d’aquesta tecnologia a l’hora de generar imatges que es poden confondre amb la realitat. Poc després, en una ponència, el pontífex advertia del perill que la IA contribuís a “difondre un sistema de desinformació a gran escala”.
Les deepfakes en la política
La controvèrsia i confusió que generen les imatges o els vídeos fets amb intel·ligència artificial també s’han utilitzat en l’esfera política per aconseguir popularitat, generar polèmiques i obtenir rèdit electoral.
Durant la precampanya de les eleccions nord-americanes del 2024, simpatitzants de l’aleshores expresident Trump van compartir imatges falses de votants negres generades amb IA per encoratjar els votants afroamericans a votar pels republicans.
Posteriorment, en arribar a la presidència, Donald Trump va publicar desenes de peces falses, incloent-hi imatges generades amb IA i vídeos deepfake al seu compte de la xarxa Truth Social, segons una anàlisi de la cadena NBC News. El president nord-americà hauria utilitzat aquest contingut per a generar rivals polítics, fer burla i reforçar la seva pròpia imatge.
“La càrrega” una escultura que no existeix
A finals d’agost del 2025 va circular massivament per les xarxes la imatge de l’escultura d’una dona amb tres fills que carrega a l’esquena multitud d’objectes domèstics com una rentadora, una olla, una escombra o un pal de fregar. Els usuaris van atribuir aquesta escultura a Jaume Plensa, un reconegut artista català, i també la localitzaven a Barcelona.
Però el cert és que l’escultura no existeix sinó que és una imatge generada amb intel·ligència artificial que va generar milions de visualitzacions. Tot i que alguns comentaris alertaven que es tractava d’una imatge falsa, en aquest cas a molts perfils no els importava la seva veracitat sinó que se centraven a comentar el que simbolitzava: la càrrega domèstica de la dona i el pes del patriarcat als nostres temps.
La IA i la violència masclista digital
Cantants com Rosalía o Taylor Swift han estat víctimes de deepfakes íntimes no consentides (NCID segons les sigles en anglès), una forma greu d’abús digital en què la intel·ligència artificial genera imatges o vídeos sexuals falsos d’una persona sense el seu consentiment.
Aquest tipus de pràctica ha anat en augment els últims anys, especialment amb contingut que ataca i vulnera la intimitat de les dones i les nenes. L’estudi “State of deepfakes 2023“, destaca que el 98% de les deepfakes són de naturalesa pornogràfica i que el 99% de les víctimes són dones.
Tot i que es tracta de material manipulat, provoca els mateixos danys per a la víctima que si es tractés d’imatges reals: violació de la privadesa, la dignitat i el benestar emocional, entre els quals alts nivells d’estrès, ansietat, depressió o baixa autoestima.
A més, els experts alerten que aquests abusos facilitats per IA, contribueixen a normalitzar la sexualitat no consentida i alimenten una cultura misògina, en la qual les dones i altres col·lectius vulnerables com les persones LGTBIQ+, en són les víctimes principals.
Davant d’aquest fenomen, el govern espanyol ha impulsat un avantprojecte de llei que protegeix els menors en l’entorn digital, amb l’objectiu de regular el contingut sexual creat amb IA i el “grooming” -pràctica en la qual un adult estableix una relació de confiança en línia o presencial amb un nen, nena o adolescent amb el propòsit final d’abusar-ne sexualment-. Ara bé, aquest fenomen encara necessita un marc legislatiu que protegeixi el conjunt de la població, especialment les dones.