Investigacions periodístiques han publicat que la xarxa social censura informació crítica amb el partit comunista xinès i afavoreix la difusió del contingut de persones atractives
Al voltant de 800 milions d’usuaris a tot el món usen TikTok, una aplicació per compartir vídeos. L’aplicació està disponible en més de 150 països i una part important dels usuaris són adolescents o joves.
La majoria dels seus joves usuaris usa l’aplicació per a compartir balls virals, tutorials, bromes o fins i tot imatges d’ells mateixos pretenent cantar cançons dels seus artistes favorits.
L’aplicació, de la mateixa manera que altres xarxes socials com Instagram o Facebook, té moderadors que censuren imatges no permeses en les seves normes d’ús. Per exemple, el contingut pornogràfic. També tanca els comptes de persones que apareixen amb armes i bloqueja temporalment els comptes d’aquells que publiquen vídeos de comportaments perillós. Per exemple, ballar amb un ganivet a la mà.
Veto als missatges crítics amb el Partit Comunista de la Xina
No obstant això, diverses investigacions periodístiques han publicat que l’aplicació bloqueja, censura o minimitza l’abast d’una altra mena de publicacions.
L’aplicació TikTok és propietat de l’empresa ByteDance, amb seu a Pequín, capital de la Xina. El país és conegut, entre altres coses, per la seva censura a internet i a les seves xarxes socials d’aquells continguts que critiquen el Partit Comunista Xinès o que difonen missatges contraris al règim.
Segons una publicació del mitjà periodístic d’investigació The Intercept , als moderadors se’ls va demanar que censuressin el discurs polític en les transmissions en viu de TikTok, castigant a aquells que van danyar l’“honor nacional” o van transmetre vídeos sobre “òrgans estatals com la policia”.
Pel setembre de l’any passat, The Guardian també va revelar documents interns de la companyia en els quals censurava, ja fos eliminant-los directament o penalitzant-ne la seva difusió, contingut crític amb el règim xinès.
Per exemple, se censuren les mencions als incidents de la plaça de Tiananmen: l’any 1989, milers d’estudiants es van manifestar per reclamar més drets i llibertats. Protestaven contra el règim comunista, que consideraven corrupte i repressiu. El govern va decidir suprimir les mobilitzacions per la força. L’exèrcit va enviar soldats i tancs a la plaça i va obrir foc contra els estudiants.
També se censura el contingut que mostra les protestes a Hong Kong, comentaris sobre la independència del Tibet o referències a la repressió que les autoritats xineses duen a terme contra la minoria musulmana del país.
Esto es lo que sabemos del video de Tik Tok de Feroza Aziz que pretendía ser un tutorial de maquillaje para criticar la persecución de China a la comunidad uigurhttps://t.co/Poau5QBNZi#Tecnología #TikTok #Uighur pic.twitter.com/TGgHAiau65
— MIT Tech Review ES (@techreview_es) December 9, 2019
Discriminació a usuaris per la seva aparença física
A més, la mateixa recerca de The Intercept assenyala que TikTok perjudica mitjançant un algoritme la difusió de vídeos en els quals es mostra la pobresa rural, barris marginals o fins i tot a persones amb “forma corporal anormal, grassonetes, amb una òbvia panxa cervesera o massa primes”.
Les “persones pobres” o que no es considerin atractives són especialment vetades de la secció “For you”, en la qual els vídeos tenen major difusió. El document intern de la companyia assenyala que se’ls exclou perquè poden “disminuir la taxa de retenció de nous usuaris”. És a dir, que la seva aparença portaria a un menor ús de TikTok.
El document també demana bloquejar el contingut en el qual apareguin “esquerdes en la paret” o “decoracions velles”.
Al desembre la publicació alemanya Netzpolitik va avançar que TikTok penalitzava la difusió de vídeos creats per usuaris discapacitats, amb sobrepès o homosexuals, per a, segons la xarxa social, evitar casos d’assetjament en la xarxa.
Però la suposada intenció d’evitar el bullying no apareix en els documents, que només citen la necessitat de mostrar continguts “atractius” i “sofisticats” en els seus canals de recomanació.
El portaveu de TikTok va explicar a The Interceipt que les recomanacions que apareixen en els documents filtrats “ja no s’usaven o no s’havien usat mai”, encara que el funcionament de l’algoritme de TikTok no és clar.
La divisió estatunidenca de la mateixa plataforma va anunciar la creació d’un “centre de transparència” per explicar com es modera el contingut i la moderació i què es fa amb les dades dels usuaris. Aquesta entitat busca oferir a experts externs la possibilitat de veure directament la manera en la qual els equips de TikTok afronten la tasca de moderar el contingut de la plataforma.
Junior Report dissenya unitats didàctiques per llegir i treballar l’actualitat a l’aula. També ofereix recursos d’educació mediàtica per fomentar la lectura crítica dels mitjans de comunicació. Consulta la nostra pàgina web!
Fonts: The Intercept , The Guardian , Netzpolitik , La Vanguardia