Cumpre ChatGPT coa protección de datos? Hai motivos para a incerteza

Noemí G. Gómez EFE

REDE

Un usuario de la herramienta ChatGPT
Un usuario da ferramenta ChatGPT EUROPAPRESS

O primeiro país en dar a voz de alarma foi Italia

24 abr 2023 . Actualizado ás 18:44 h.

Para que unha compaña dixital poida operar en Europa debe ter unha política de privacidade transparente, co consentimento como eixo central. Cumpre OpenAI, propietaria de ChatGPT , coa normativa? Saben os usuarios como se utilizan os seus datos? Expertos pono en dúbida; hai motivos para a incerteza. En poucos meses a intelixencia artificial ChatGPT, capaz de xerar textos, imaxes ou música a partir de datos existentes, pasou de ser unha ferramenta minoritaria, máis próxima a un experimento de laboratorio, a un bum, e dela preocupa, precisamente, a rapidez do seu desenvolvemento, a propiedade intelectual, a súa utilización para desinformar, a ciberseguridad ou a súa política de protección de datos.

O primeiro en dar a voz de alarma sobre a posible falta de privacidade foi Italia. O pasado 31 de marzo o país anunciou o bloqueo do uso de ChatGPT por non respectar a lei de protección de datos dos consumidores, e a apertura dunha investigación a OpenAI, á que ademais solicitou unha serie de medidas concretas. O asunto xa está en Europa; o Comité Europeo de Protección de Datos creou un grupo de traballo para fomentar a cooperación e intercambiar información sobre as accións das autoridades de protección de datos dos distintos países membros, de Islandia , Liechtenstein e Noruega , que teñen así mesmo dúbidas respecto diso.

Actuacións en España

Desde España tamén se mostrou preocupación por un posible incumprimento da normativa. A Axencia Española de Protección de Datos (Aepd) anunciou o pasado 13 de abril que iniciaba de oficio actuacións previas de investigación á empresa estadounidense. A axencia defende o desenvolvemento e a posta en marcha de tecnoloxías innovadoras como a intelixencia artificial (IA) desde «o pleno respecto» á lexislación vixente, xa que considera que «só desde ese punto de partida pode levar a cabo un desenvolvemento tecnolóxico compatible cos dereitos e liberdades das persoas».

A medida tomada pola Aepd «entra dentro do normal pero é algo excepcional», porque «non adoita abrir investigacións así», sinala a EFE Sergio de Juan-Creix , avogado de Croma Legal e profesor da Universitat Oberta de Catalunya (UOC), quen lembra que o Regulamento Xeral de Protección de Datos (RGPD) aplícase en toda a Unión Europea pero os estados seguen sendo soberanos na materia. O que está a facer agora a Aepd, explica, é pedir información a OpenAI para valorala e establecer se o tratamento de datos desta empresa é acorde coas normas europeas e españolas.

Transfírense datos aos Estados Unidos?

Por exemplo, habería que pescudar se OpenAI está a transferir datos dos usuarios a Estados Unidos; «Europa considera que o envío de datos a ese país non é seguro», di, porque alí non hai unha protección equivalente, «non se cumpren os mínimos que esixe a UE». Borja Adsuara, experto en Dereito Dixital e profesor da Universidade Complutense de Madrid, é da mesma opinión: «O que dixo a Aepd é que deamos información porque é o que esixe o regulamento europeo». Hai que coñecer que datos solicita, que fai con eles, se se ceden a terceiros ou se hai transferencia internacional.

Coa explosión de ChatGPT e outras ferramentas deste tipo de IA «o que está a pasar é que a xente está envorcando moitísima información, non só propia senón de outros», detalla De Juan-Creix. Adsuara pon un exemplo da súa propia profesión: hai despachos de avogados que están «a rebuldar» con esta IA, fan escritos e meten datos dos seus clientes, pero saben onde van eses datos e o seu uso? «Non quero dicir con isto que OpenAI recompíleos ou os use», pero o regulamento europeo contempla a obrigación de informar. Para o profesor da UOC, «ao parecer OpenAI non está a informar da base legal que aplica e sobre se envía datos a Estados Unidos. Polo menos hai incerteza en todo isto. Eu non digo que remate en sanción, pero tense que investigar».

Podería a AEPD bloquar ChatGPT?

O regulamento europeo o que ten de particular -detalla- é que aplica a calquera entidade que trate datos de cidadáns europeos, dá igual se está no Xapón ou Estados Unidos, e obriga a estas compañas a nomear un representante en territorio europeo. Se non o fan poden recibir unha forte sanción. Adsuara cre que OpenAI rematará abrindo delegación en Europa, «ningunha empresa vai querer renunciar ao mercado europeo», e terá entón «que pasar polo aro e cumprir o regulamento, que é claro».

E podería a Aepd bloquear ChatGPT? Adsuara lembra que segundo o regulamento europeo cada autoridade de control pode sancionar a todo responsable ou encargado do tratamento dos datos cunha advertencia e cun apercibimiento se infrinxe o disposto na normativa de protección de datos, pero tamén pode impor unha limitación temporal ou definitiva, incluída a súa prohibición. No entanto, este experto en dereito dixital non cre que o bloqueo chegue; «a compaña dirá que quere cumprir. Imos levarnos ben». Ademais, as medidas que se puidesen tomar seguro que se pecharán conxuntamente no marco do Comité Europeo de Protección de Datos. Ambos os expertos coinciden en que máis aló desta materia preocupa tamén a desinformación ou a propiedade intelectual.

No primeiro caso a facilidade e «perfección» coa que se poden crear noticias falsas, seremos capaces de contrastalo todo?. E no segundo caso, a quen pertence, por exemplo, un cadro «pintado» por esta ferramenta? É de ChatGPT, de OpenAI ou do usuario que pide á IA que o faga?. E como para iso esta intelixencia artificial nutriuse de creacións anteriores e esas poden ter os seus dereitos de autor, é legal? Hai que regulalo.