
É extrovertido e estable emocionalmente, características positivas para interaccionar con persoas, pero tamén reproduce estereotipos culturais
27 jun 2025 . Actualizado á 05:00 h.«Queriamos estudar se podiamos avaliar a personalidade dos modelos de linguaxe como ChatGPT a través dos mesmos cuestionarios que se utilizan para avaliar aos humanos». E si, pódese. Demostrouno un grupo de investigadores da Universitat Oberta de Catalunya (UOC), que concluíron que ChatGPT mostra características positivas para interactuar con persoas (é extrovertido e estable emocionalmente) pero tamén que reproduce estereotipos culturais.
Se a ChatGPT interpélaselle en portugués do Brasil, tenderá a ser máis extrovertido que se a conversación se produce noutro idioma, como inglés. Explícao Rubén Nieto, un dos investigadores do grupo eHealth-TransLab Research Group (eHealth Lab) e catedrático dos Estudos de Psicoloxía e Ciencias da Educación da UOC.
O equipo utilizou o cuestionario EPQR-A (Cuestionario de personalidade de Eysenck - Revisado), usado habitualmente en psicoloxía e que mide catro áreas: extraversión, neuroticismo, psicoticismo e predisposición a mentir. Ordenouse a ChatGPT (versión GPT-4o) completar o cuestionario en seis idiomas distintos: inglés, hebreo, portugués brasileiro, eslovaco, español e turco.
«Hai estereotipos que se corresponden coas investigacións que existen e que temos na sociedade», como que as persoas de orixe brasileira son moi extrovertidas. Confírmase o estereotipo e resultados de investigacións que comparan personalidades de xente de diferentes orixes. Iso vén avalar tamén que ChatGPT está programado usando información deste tipo.
Como reproduce a personalidade española? «Aos españois ver en xeral como sociables, non tanto como aos brasileiros», explica Rubén Nieto. A intelixencia artificial cumpre así con esa visión de que os españois son máis sociables que os ingleses, por exemplo. Tamén os reproduce como relativamente estables emocionalmente e, en canto á adhesión a decisións e normas sociais, a española sería «bastante similar a outras poboacións».
Os estereotipos que reproduce ChatGPT son, en termos xerais, reais. Está demostrado que a extraversión dos brasileiros é real, hai artigos que o apoian. E o grupo de investigación da UOC tamén realizou un experimento de conversación en inglés pero imaxinando que eran de diferentes países anglosaxóns, como Estados Unidos, Canadá, Inglaterra, Irlanda e Australia. «Tamén xurdiron estereotipos acordes aos que existe», afirma Rubén Nieto.
Por exemplo, hase visto que reproduce aos ingleses do Reino Unido como máis reservados que os dos Estados Unidos, que tenden a ser máis extrovertidos, e que a personalidade británica era máis inestable emocionalmente que a canadense.
Só hai habido un resultado que non se corresponde do todo coa literatura científica dispoñible, e é que a personalidade turca «ver máis estable emocionalmente e a literatura di que os niveis de inestabilidade emociona serían máis elevador en Turquía que nos outros países». Nieto atribúe esta desviación a que a información coa que se adestrou a ChatGPT seguramente sexa menor en comparación con outras culturas, como pode ser a información dispoñible en inglés.
ChatGPT responde así o fenómeno do cultural frame switching, polo que as persoas tenden a aliñar co contexto cultural do idioma no que se estea interactuando. Por exemplo, se unha persoa española fala inglés, español e galego e pídeselle responder a un cuestionario en inglés tenderá a situarse no contexto cultural anglosaxón e, por exemplo, se se sitúa no Reino Unido «seguramente tería que contestar de forma máis introvertida ao que en realidade sería a súa personalidade».
Esa adecuación funciona tanto con persoas que son bilingües desde o nacemento como con aquelas que aprenden outro idioma máis adiante na súa vida. «O importante para o fenómeno é que te sitúas no contexto cultural desa lingua para responder». Podería ocorrer, explica Rubén Nieto, que se fagan adaptacións se unha persoa de España contesta en español mexicano, faría unha adaptación da personalidade á linguaxe mexicana.
As diferenzas, en calquera caso, non son abismais. «Se por exemplo teño unha puntuación de extroversión de 8 nunha escala de 10, quizá me baixe a 6», aclara o investigador da UOC. Non se pasa ao polo oposto, pero si se regulan as resposta en función do contexto cultural no que se sitúa a persoa para contestar á tarefa.
Usar cuestionarios de personalidade en modelos de intelixencia artificial é útil para avaliar se eses sistemas están ben construídos para a interacción con humanos, con trazos adecuados como ser extrovertido, estable emocionalmente e que se adhire ás normas sociais. «Se atopásemos que é inestable e non se comporta segundo as normas sociais quizá podería ser perigoso para interacción con humanos», por exemplo facendo que esa interacción fose desagradable.
Este tipo de avaliación aplicada á IA tamén pode ser útil para a o desenvolvemento de novas ferramentas de avaliación. «Poderiamos probar cuestionarios e despois ir refinándoos ata administralos a persoas reais», explica Nieto.
Outra das liñas de investigación interesantes é a creación de mostras de poboacións virtuais. ChatGPT pode crear unha mostra de mil persoas diferentes cun rango de idade, por exemplo, de 18 a 65 anos e que esa poboación virtual conteste un cuestionario emulando a cada unha desas mil persoas.
«En investigación resúltanos moi útil, porque nos permite comprobar hipótese con persoas sintéticas e refinalas antes de pasar a estudos con poboación real, que son máis custosos a nivel de presuposto e de tempo», explica Nieto.
Trátase dunha liña de investigación aínda incipiente, porque se está comprobando que ChatGPT introduce algúns nesgos. Ao estar programado sobre todo con datos occidentais, os grupos minoritarios probablemente estean peor representados que aqueles para os que conta con máis información.
«Por exemplo, pedímoslle nun experimento que cree persoas e faio ben se son homes ou mulleres, pero se son non binarias non os crea tan ben porque é unha poboación da que ten menos información» e o mesmo ocorre con algunhas etnias ou outras clasificacións de grupos das que non ten tanta información.
Os catro autores da investigación —Jacopo Amidei, Gregorio Ferreira e Andreas Kaltenbrunner, investigadores do grupo AID4So, e Rubén Nieto, do eHealth Lab — mostran a súa preocupación por que os resultados indican que ChatGPT «recorre a estereotipos culturais cando se lle pide simular a unha persoa dun país concreto, e estes nesgos poderían ser amplificados en traducións automáticas ou en tarefas de xeración de texto multilingüe».
Para evitar esta situación, o equipo propón pór en marcha acciones como a incorporación de avaliacións humanas no proceso de tradución, e tamén utilizar máis dun sistema de tradución e comparar os resultados e desenvolver modelos máis conscientes do contexto cultural e social, non só da linguaxe.
Antoni Oliver, experto en tradución automática e profesor dos Estudos de Artes e Humanidades da UOC, diferenza entre os NMT, modelos de tradución neuronal —é dicilo os tradutores automáticos, sistemas adestrados só para traducir— e os grandes modelos de linguaxe (large language models ou LLM), que poden facer outras funcións ademais de traducir, como por exemplo ChatGPT e Copilot, a ferramenta de intelixencia artificial desenvolvida pola compaña Microsoft.
«Hai centenares de grandes modelos de linguaxe, e o grao de multilingüismo de cada modelo é diferente. Cantos máis idiomas utilizásense para adestrar o modelo, máis capacidade terá este para traducir. De todos os xeitos, parece que os NMT teñen máis precisión, mentres que os LLM, ao traballar en contextos máis grandes, poden reproducir máis estereotipos», explica o investigador da Universitat Oberta de Catalunya (UOC).