Meta sustituirá sus equipos de revisión por sistemas de IA para evaluar los posibles riesgos de nuevas funciones

La Voz MADRID / EUROPA PRESS

SOCIEDAD

Yves Herman | REUTERS

La compañía busca lanzar más productos con mayor rapidez y «con un escrutinio y una oposición menos rigurosa»

02 jun 2025 . Actualizado a las 10:45 h.

Meta planea recurrir principalmente a sistemas de Inteligencia Artificial (IA) para evaluar los posibles riesgos de las nuevas funciones concebidas para integrarse en sus plataformas de redes sociales, sustituyendo en un 90 % a sus equipos de revisión actuales.

A la hora de lanzar nuevas herramientas para sus redes sociales, como Instagram, WhatsApp y Facebook, la compañía liderada por Mark Zuckerberg dispone de equipos de revisores que evalúan los posibles riesgos de dichas funciones antes de lanzarlas, de cara a evitar inconvenientes de privacidad o de propagación de contenido dañino, entre los posibles consecuencias.

Actualmente, estos equipos están compuestos por personal que evalúa mediante distintos procesos las características de las nuevas funciones, sin embargo, Meta está considerando ahora sustituirlos por sistemas impulsados por IA para la mayoría de las evaluaciones de riesgos.

Así lo ha recogido el medio estadounidense NPR, quien ha tenido acceso a documentos internos y a declaraciones de fuentes relacionadas con la compañía, donde se detalla que se trata de una medida pensada para lanzar más productos con mayor rapidez y «con un escrutinio y una oposición menos rigurosa».

En concreto, el sistema de revisión impulsado por IA se encargará de realizar el 90 % de las evaluaciones de riesgos, incluyendo nuevas características de seguridad o cambios en la forma de compartir contenido en las plataforma, lo que también podrá influir en el funcionamiento de los algoritmos de las redes sociales.

Para ello, los equipos de producto deberán completar un cuestionario sobre la nueva función y, en base a dicho cuestionario, los sistemas de IA identificarán las áreas de riesgo y los requisitos necesarios para abordarlas. Así, los desarrolladores deberán verificar que sus funciones cumplen dichos requisitos para poder lanzarlas, pero no deberán ser aprobadas por los equipos de verificación.

Por tanto, al no estar sujetos a la verificación de los revisores, los cambios y novedades podrán tener repercusiones más inmediatas. «Es menos probable prevenir las externalidades negativas de los cambios de producto antes de que empiecen a causar problemas en el mundo», ha manifestado al respecto una de las fuentes relacionadas.

Por su parte, Meta ha trasladado al medio citado que los cambios en el proceso de la revisión de riesgos de nuevas funciones permitirán agilizar la toma de decisiones y que, igualmente, continuarán utilizando la «experiencia humana» para abordar «problemas nuevos y complejos».

Con todo, la tecnológica ha asegurado que «solo se están automatizando decisiones de bajo riesgo» mediante IA, aunque los documentos internos señalan que se incluyen cuestiones como el riesgo para los menores y categorías relacionadas con el contenido violento y propagación de información falsa.

Estos cambios en el proceso de revisión de nuevas funciones coinciden con los informes de integridad del primer trimestre del 2025, donde se detalla que, tras cambiar dejar de utilizar verificadores externos para su sistema de moderación en enero, Facebook ha registrado un aumento en el contenido de tipo violento y en los comportamientos de acoso en la red social.