
A privacidade converteuse nunha das principais preocupacións para os usuarios de ferramentas de IA xenerativa
19 may 2025 . Actualizado á 16:48 h.A utilización dos buscadores de intelixencia artificial como ChatGPT a nivel de usuario é aínda incipiente e, máis aló do uso que poidan estar a lle dar estudantes para realizar traballos de clase, moitos internautas o que fan con esta ferramenta é probar. O que cada vez está máis claro é que a IA xenerativa irrompeu con forza durante os últimos anos ata redibujar a relación que os usuarios teñen con internet.
Porque a chegada da internet supuxo unha transformación sen precedentes, permitiu o acceso e a democratización da información e o coñecemento; e multiplicou as oportunidades en moitos ámbitos, como a educación ou a sanidade. Pero a irrupción da intelixencia artificial alterou as regras de xogo, porque potencia moitas desas oportunidades á vez que o fai tamén con moitos dos riscos asociados á rede, talles como o acoso, a desinformación ou a ciberdelincuencia). Precisamente, o manifesto que elaboraron institucións, organizacións sociais e empresas españolas con motivo da celebración o pasado sábado do Día da internet aposta por «unha nova xeración da internet comprometida coas persoas», no que se recolle un decálogo de principios para que a rede estea ao servizo dos usuarios e as novas tecnoloxías non sexan percibidas como unha ameaza.
Os usuarios preguntamos constantemente á IA calquera dúbida que nos xorde, pero que fai esta tecnoloxía xenerativa coa información que lle damos?. Ante a pregunta de se é público o que lle preguntas a ChatGPT, a propia ferramenta de OpenAI responde o seguinte: «Non, o que lle preguntas a ChatGPT non é público. As túas conversacións non se publican nin están dispoñibles para que outras persoas véxanas. Con todo, é importante ter en conta o seguinte…». E engade información sobre privacidade dos datos, o modo de adestramento da ferramenta e o modo de navegación privada, para rematar coa seguinte afirmación: «En resumo: non é público, pero pode ser usado internamente a menos que o desactives».
E que fan estas ferramentas coa información que lles proporcionan os usuarios? «Depende de cada provedor e da súa configuración», apunta José Alberto Benavides Martínez, director de Crecemento e Negocios da consultora tecnolóxica de FiT, a consultora tecnolóxica de t2ó ONE. E explica que no caso de ChatGPT, algunhas conversacións das versións gratuítas ou con historial de chat activado, «poden ser revisadas por humanos para mellorar o modelo, de forma anonimizada». Este experto subliña que, con todo, nas versións de pago, como ChatGPT Enterprise, os usuarios teñen a posibilidade de desactivar o uso dos seus datos para adestramento. Ademais, engade que os modelos non teñen memoria por defecto e non lembran conversacións pasadas, a menos que o usuario habilite esa función explicitamente. Por tanto, a súa resposta coincide coa que achega o propio buscador baseado en IA, aínda que recomenda «non compartir información confidencial, como datos bancarios, médicos ou credenciais persoais, salvo que sexa estritamente necesario e estéase utilizando unha versión segura», para evitar que esa información sensible poida estar accesible para equipos de revisión en contextos controlados.
En calquera caso, Benavides destaca que en Europa, o Regulamento Xeral de Protección de Datos (RGPD) «protexe calquera dato persoal que os usuarios compartan con estas ferramentas», como nomes, correos electrónicos ou identificadores. Isto aplica a todas as empresas que operen na Unión Europea ou traten datos de cidadáns europeos. Ademais, desde o pasado ano, a nova Lei de Intelixencia Artificial establece obrigacións adicionais para os provedores de IA, como transparencia, trazabilidade e control humano en determinados usos. Fóra de Europa, tamén existen normativas similares, como a CCPA en California, que buscan garantir un tratamento adecuado e seguro da información persoal.
Vantaxes da versión de pago
Os usuarios que contan cunha versión prémium destas ferramentas contan cun maior grao de protección. ChatGPT Team ou Enterprise permiten desactivar o uso dos datos para adestramento de modelos, e no caso das versións empresariais, inclúense medidas adicionais como o cifrado reforzado, contornas de uso illados e acordos específicos de protección de datos. «Estas versións están pensadas para usuarios que manexan información crítica, como empresas do sector saúde, legal ou financeiro», explica o experto de FiT.
Pero contas de pago á parte, existen tamén boas prácticas que os usuarios poden seguir antes de arrepentirse de compartir unha información privada. O primeiro é evitar compartir datos sensibles, como información médica, claves ou documentos privados; doutra banda, débense desactivar o historial de chats, se a ferramenta permite. «E algo que case ninguén fai pero é recomendable, é ler a política de privacidade antes de usar a ferramenta, para entender que datos se recollen e como se utilizan», engade Benavides. Para rematar, fai referencia a fortalecer a seguridade do acceso, usando claves robustas, conexións seguras (VPN) e dispositivos coñecidos.
E quen debe responder ante estes datos? A empresa que ofrece a ferramenta é a principal responsable do tratamento dos datos, no caso de ChatGPT é OpenAI. Esta organización debe garantir o cumprimento das leis de protección de datos aplicables, informar claramente o usuario sobre o uso da súa información e permitir o exercicio dos seus dereitos (acceso, rectificación ou supresión). En contornas empresariais, pode haber corresponsables do tratamento (por exemplo, unha empresa que integra ChatGPT nos seus procesos internos) ou encargados do tratamento, en función dos acordos contractuais.
O que está claro no sector tecnolóxico é que a sociedade é cada vez máis consciente dos riscos que corre se non se protexe ante roubos cibernéticos do mesmo xeito que o faría ante un ladrón físico. «A privacidade converteuse nunha das principais preocupacións para os usuarios de ferramentas como ChatGPT, Grok ou DeepSeek; «a percepción de risco intensificouse con algúns casos de filtracións, e a xente está moito máis atenta desde a entrada en vigor de leis como o RGPD ou a AI Act», opina Benavides, que cre que os usuarios demandan transparencia, control e garantías reais. «A confianza xa non gaña só con funcionalidades, senón tamén cunha política de privacidade clara e responsable».