El ‘War Room’ de Facebook
En un rincón del enorme complejo de Facebook en Silicon Valley (California), una puerta tiene un cartel que dice “War Room”. Detrás de ella se encuentra el comando central desde el cual la red social se propone detectar cuentas y fake news en la antesala de las elecciones de mitad de término en Estados Unidos.
Decenas de empleados miran fijamente sus computadoras mientras circula información por un tablero gigantesco. En las paredes hay carteles como los que usa esta empresa para recordar cosas importantes a sus trabajadores. Uno dice: “Para Facebook, nada es problema de otros”.
Ese lema puede sonar irónico, dado que ese comando fue creado para contrarrestar amenazas que casi nadie en la empresa, y eso incluye a su director ejecutivo Mark Zuckerberg, tomaron en serio hace dos años. Y que para algunos representan una amenaza para la democracia.
Días después de la sorpresiva victoria de Donald Trump en las elecciones presidenciales de 2016, Zuckerberg desestimó denuncias de que en el resultado habían incidido noticias ficticias difundidas por Facebook. Describió esa idea como algo “bastante loco”.
Pero la actitud de Facebook fue cambiando a medida que llovían las críticas de todos lados, incluido el Congreso estadunidense. Ese mismo año, admitió haber encontrado miles de avisos con información falsa, colocados por agentes rusos.
El “war room” es parte de esa campaña. Su tecnología se nutre del sistema de inteligencia artificial que Facebook usa para identificar posts “inauténticos” y analizar el comportamiento del usuario.
Facebook permitió a la Associated Press y a otros medios dar un vistazo rápido a su comando central antes de las elecciones del 28 de octubre en Brasil y de las del 6 de noviembre en EU.
Una veintena de equipos coordinan los esfuerzos de más de 22 mil personas —en su mayoría contratistas— que tienen la misión de bloquear noticias y cuentas falsas y evitar otros abusos en Facebook y sus otros servicios, como Instagram.
Facebook dice que su “war room” y otras iniciativas de vigilancia detectaron mil 300 millones de cuentas falsas en el último año y eliminaron cientos de páginas creadas por otros gobiernos empeñados en generar confusión.
No está claro si Facebook está haciendo lo suficiente, según Angelo Carusone, presidente de Media Matters For America, una organización liberal que está pendiente de las informaciones falsas.
Carusone señala que la información sensacionalista falsa puede mantener a la gente pegada a Facebook, lo que a su ver le permite a la red atraer más anunciantes, su principal fuente de ingresos.
No se sabe mucho del comando central y de su funcionamiento como para decir si realmente ayuda a Facebook a detectar y bloquear el contenido indeseado o si es simplemente “una sala de conferencias temporal con un montón de computadoras”, expresa Molly McKew, investigadora de New Media-Frontier, que estudia el flujo de contenido en las redes sociales.