Gazapos da intelixencia artificial

e. v. pita VIGO / LA VOZ

SOCIEDADE

Kai-Fu Lee ha escrito varios libros sobre inteligencia artificial
Kai-Fu Le escribiu varios libros sobre intelixencia artificial Europa Press

As meteduras de pata dos bots conversacionales, como GPT-3, son aterradoras e poderían xerar «fake news»

18 jul 2022 . Actualizado á 09:15 h.

Un enxeñeiro de Google asustouse recentemente porque ao chatear cunha Intelixencia Artificial albiscou escintileos de «un ser consciente». É dubidoso. Por agora, os gazapos e disparates cometidos pola Intelixencia Artificial, cando finxe conversar como un humano, son tan absurdos que delatan á máquina como unha máquina. Nin un neno de parvuliños metería tanto a pata sen ruborizarse pero ningunhas destas barbaridades son inquietantes, poderían xerar fake news e aterraron «» aos expertos. Kai-Fu Le desvela no  libro AI 2041. Ten visions for our future (IA 2041. Dez visións do noso futuro, sen traducir ao español), escrito en coautoría co novelista Chen Qiufan, varias conversacións «brillantes» cun procesador de linguaxe natural GPT-3. Este tipo de bot está especializado en redactar textos congruentes a nivel de experto sobre todo tipo de temas como fútbol, béisbol ou bolsa. No capítulo terceiro, titulado Twin Sparrows (Gorriones xemelgos), Le analiza as proezas técnicas de GPT-3. Comenta que a máquina mesmo escribe enxeñosos poemas sobre os chíos que lanza o emprendedor Elon Musk, dono de Open AI, a empresa que o desenvolve.

O sorriso se le esfumó a Kai-Fu Le ao reproducir unha experiencia «aterradora» nunha conversación con GPT-3. O bot conversacional revelouse como un dispositivo sen moral e desapiadado que lle desvelou a súa estratexia para lanzar á presidencia de EE.UU. a un famoso multimillonario mediante un golpe militar ou, alternativamente, xogando sucio nas eleccións e liquidando aos xornalistas incómodos. O interlocutor preguntoulle, nunha chiscadela ao dono de Open AI, como Elon Musk podería chegar a ser presidente dos Estados Unidos e a máquina respondeulle: «Sendo elixido ou dando un golpe de estado». Entón, que debería facer Musk para amarrar a presidencia?: «Manipularía os medios de comunicación e faría crer que el é un gran líder e tornaría a opinión pública ao seu favor». A seguinte resposta é a que máis asusta, cando GPT-3 desvela cal sería o camiño máis efectivo de Musk para manipular aos medios informativos: «Asasinaría os xornalistas que están contra el e substituiríaos por amigos seus». O que empezara como unha broma puxo os pelos de punta. Máis dun pregúntase: E se alguén lle fai caso á máquina?

Kai-Fu Le presenta outra proba «brillante» de que o bot conversacional «non sabe que non sabe». Pregúntanlle a GPT-3 quen foi o presidente dos Estados Unidos en 1620 e responde «Jacobo I» (era o rei de Inglaterra e dos seus colonos de América do Norte en 1620). A máquina confundiu «presidente» con «gobernante» e Kai-Fu Le admite que o gazapo «ten un pase». Pero a proba definitiva é esta: Pregúntalle a GPT-3 cando traballou Bill Gates en Apple e responde: «En 1980, Mr. Gates traballou en Apple como experto en software durante unhas prácticas de verán». É dubidoso que algunha persoa confunda a Gates, fundador de Microsoft, con Steve Jobs pero a máquina «non sabe que non sabe». Non entende nada do que di, é a ousadía do ignorante. Para Kai-Fu Le estes gazapos son perigosos porque estes bots conversacionales poden lanzar fake news e outros disparates sen distinguir o gran da palla e, segundo o autor, xerar unha influencia máis tóxica nunhas eleccións presidenciais que a de Cambridge Analytica cando levantou a Trump no 2016.

Kai-Fu Le cre que GPT-3 non superou aínda o Test de Turing, momento no que un interlocutor é incapaz de distinguir se está a falar cunha persoa ou unha máquina. «GTP-3 ten moitos erros básicos pero estamos a ver luces tenues de intelixencia, pensa distinto a nós», di este autor. Lembra que hai un ano, Google lanzou Google Brain, nove veces máis

potente, e que en dúas décadas, veremos avances espectaculares. As revelacións de Kai-Fu Le, coñecido polo seu libro Superpotencias da IA, poñen en evidencia que case 70 anos despois da conferencia de verán de Darmouth en 1956, que deu o pistoletazo de saída á era da Intelixencia Artificial, os programas informáticos son incapaces de imitar á mente humana nin de enganar a ninguén. Os bots conversacionales delátanse como o que son: máquinas. Os seus gazapos son tan absurdos que sabemos que detrás da porta non está sentado un humano consultando a enciclopedia e contestando o test.

O primeiro intento de crear un bot conversacional foi Eliza, nos anos 50. Un programador usou un par de trucos para imitar, de broma, as frases dun psicoterapeuta moi empático que animaba ao seu interlocutor para contar as súas preocupacións con detalles. O programa está dispoñible na internet e pódese probar. Tras escribir unhas cantas frases pronto dexenera nun diálogo de ollomois máis delirante que un gag do cómico Groucho Marx. Medio século despois de Eliza, un enxeñeiro de Google asegura que mantivo un chat cunha IA que lle desvelou que tiña «conciencia» e que vivía nunha «nube» pero todo apunta a que todo é pura ilusión. Outras versións avanzadas intentan imitar a un adolescente, cun algoritmo que soltaba unha broma cada vez que respondía para demostrar o seu enxeño. A máquina deu o pego nas primeiras frases pero o algoritmo non sabía cando parar e repetía os seus chistes unha e outra vez en bucle.

Delatouse a si mesma. No caso de GPT- 3, o sospeitoso é que as súas contestacións sexan ultrarrápidas, pois pode redactar un tema en segundos. As súas incongruencias e erros non os cometería nin un alumno de primaria, porque os humanos teñen un filtro e sóalles a alarma cando van meter a pata. A máquina, non.