La veu de la nova eina s’assemblava massa a la de l’actriu Scarlett Johansson
L’empresa OpenAI ha deshabilitat la veu de Sky al seu nou model GPT-4o després que l’actriu Scarlett Johansson expressés la seva indignació per la forta similitud amb la seva a la pel·lícula Her (2013). Quina ha estat la polèmica al voltant d’aquesta nova veu per al ChatGPT? Com ha reaccionat OpenAI? Expliquem per què s’ha eliminat Sky i quines conseqüències pot arribar a tenir la personificació de la intel·ligència artificial.
GPT-4o i la resposta de Scarlett Johansson
ChatGPT és un dels exemples més coneguts d’intel·ligència artificial generativa. És un model dissenyat per l’empresa nord-americana OpenAI per respondre preguntes, participar en converses i generar text a través d’un xat. La darrera versió de la IA, GPT-4o, presentada per la companyia el 13 de maig, ha dotat el sistema de veu, de manera que és capaç de mantenir un diàleg a temps real amb l’usuari.
OpenAI ha suspès la veu de Sky, una de les que apareixia a les demos que van compartir. Ho van fer després que alguns usuaris trobessin força similituds entre Sky i la veu de l’actriu Scarlett Johansson a Her. Aquesta pel·lícula segueix la història de la relació d’un escriptor amb un xatbot, Samantha, a qui posa veu Scarlett Johansson.
El 13 de maig, Sam Altman, director executiu de l’empresa OpenAI, va fer una publicació a X (abans Twitter) amb només la paraula her, una referència clara a la pel·lícula. Tot i que l’empresa ha dit que la veu no imita la de l’actriu, les semblances han causat controvèrsia. Johansson va publicar unes declaracions adreçant la qüestió, on explicava que al setembre va rebutjar una oferta d’Altman per donar veu al nou model GPT-4o. Segons el comunitat de Johansson, dos dies abans del llançament del xatbot, Altman va tornar a contactar amb l’agent de l’actriu per demanar-li que considerés de nou la proposta, però abans de rebre resposta aquesta versió de ChatGPT ja era pública. Després de sentir la veu de Sky, explica, es va sentir “sorpresa” i “enfadada” i comunica que ha contractat suport legal per conduir la situació.
Johansson conclou la seva declaració així: “En un moment en què tots estem lluitant contra deepfakes i per la protecció de la nostra imatge, del nostre treball, de les nostres identitats, crec que aquestes qüestions mereixen claredat absoluta. Espero amb interès una resolució en forma de transparència i l’aprovació de la legislació adequada per tal d’ajudar a garantir la protecció dels drets individuals”.
El risc de personificar la IA
Més enllà de les disputes legals, aquest esdeveniment posa de nou sobre la taula un debat important en les converses sobre els riscos de la intel·ligència artificial: la personificació. La IA no és un ésser humà, però els xatbots com ChatGPT s’expressen de manera similar a les persones.
Això pot provocar certa humanització de la IA, un fet que implica el risc de crear vincles emocionals amb la màquina fins al punt d’oblidar que no hi ha cap persona real parlant a l’altra banda. El problema esdevé encara més gran quan les persones empren la intel·ligència artificial per trobar consells vitals o sobre salut física i mental, i donen capacitat a la IA per decidir per elles.
La pel·lícula Her parla precisament del perill de desenvolupar un vincle emocional amb una intel·ligència artificial a costa de les relacions amb el món real. La interacció amb una IA no substitueix ni la interacció humana ni l’atenció d’un professional de la salut. En parlem a la càpsula didàctica sobre intel·ligència artificial de Desfake.