Facebook tardó en actuar e incluso ignoró en un principio la evidencia de que las cuentas falsas en su plataforma estaban debilitando las elecciones y los asuntos políticos en varias partes del mundo, según un informe explosivo enviado por una empleada de Facebook recientemente despedida y obtenido por BuzzFeed News.
El informe, de 6.600 palabras, escrito por la excientífica de datos de Facebook Sophie Zhang, está lleno de ejemplos concretos de jefes de Gobierno y partidos políticos de Azerbaiyán y Honduras, que utilizan cuentas falsas o se presentan de manera engañosa para influir en la opinión pública. En países como la India, Ucrania, España, Brasil, Bolivia y Ecuador, Zhang encontró pruebas de campañas coordinadas de diverso alcance para impulsar o dificultar a los candidatos políticos o los resultados, aunque no siempre llegó a la conclusión de quién estaba detrás de ellas.
«En los tres años que he pasado en Facebook, he encontrado múltiples intentos flagrantes de Gobiernos nacionales y extranjeros de abusar de nuestra plataforma a gran escala para engañar a su ciudadanía; algunos han causado noticias internacionales en varias ocasiones», escribió Zhang, quien se negó a hablar en persona con BuzzFeed News. Su perfil en LinkedIn decía que «trabajaba como científica de datos para el equipo de falsas interacciones de integridad del sitio de Facebook» y que se ocupaba de «bots que influyen en las elecciones y similares».
«He tomado por mi cuenta decisiones que afectaron a presidentes nacionales sin ninguna supervisión, y he realizado acciones contra tantos políticos famosos en todo el mundo que he perdido la cuenta», relata.
El informe es un resumen concluyente de los fracasos de Facebook. Es la historia de Facebook abdicando la responsabilidad de actividades difamatorias en su plataforma que podrían afectar el futuro político de naciones fuera de los Estados Unidos o Europa Occidental. También es la historia de un empleado novato que ejerce poderes de moderación excesivos que afectaron a millones de personas sin ningún apoyo institucional real, y el tormento personal consecuente.
«Sé que ya tengo las manos manchadas de sangre», escribió Zhang.
Estas son algunas de las revelaciones principales del informe de Zhang:
– Los líderes de Facebook tardaron nueve meses en actuar cuando una campaña coordinada «utilizó miles de cuentas falsas apoyando al presidente Juan Orlando Hernández de Honduras repetidamente, para engañar al pueblo hondureño». Dos semanas después de que Facebook tomara medidas contra los autores en julio, volvieron, llevando a un juego del ratón y el gato entre Zhang y los operativos de las cuentas falsas, que todavía están activas.
– En Azerbaiyán, Zhang descubrió que el partido político gobernante «utilizaba miles de cuentas falsas… para acosar a la oposición una y otra vez». Facebook comenzó a investigar el tema un año después de que Zhang lo reportara. La investigación se está llevando a cabo.
– Zhang y sus compañeros eliminaron «10.5 millones de interacciones falsas y seguidores de políticos destacados de Brasil y EE. UU. en las elecciones de 2018».
– En febrero de 2019, un investigador de la OTAN informó a Facebook que «había obtenido datos de actividad falsa procedente de Rusia sobre un personaje político famoso de EE. UU. que no fuimos capaces de descubrir». Zhang eliminó la actividad «apagando el fuego de inmediato».
– En Ucrania, Zhang «encontró actividad falsa en forma de guion» apoyando tanto a la ex primera ministra Yulia Tymoshenko, política proeuropea y excandidata presidencial, como a Volodymyr Groysman, ex primer ministro y aliado del expresidente Petro Poroshenko. «Volodymyr Zelensky y su facción fue el único grupo importante que no se vio afectado», dijo Zhang sobre el actual presidente de Ucrania.
– Zhang descubrió actividad falsa ―un término de Facebook para la participación de cuentas bot y cuentas manuales coordinadas― en Bolivia y Ecuador, pero eligió «no darle prioridad» debido a su agenda de trabajo. La cantidad de poder que tenía como empleada de nivel medio para tomar decisiones acerca de los resultados políticos de un país tuvo un efecto negativo en su salud.
– Después de enterarse de la manipulación coordinada en la página de Facebook del Ministerio de Sanidad español durante la pandemia de COVID-19, Zhang ayudó a encontrar y eliminar 672.000 cuentas falsas «actuando en objetivos similares a nivel mundial», incluso en los EE. UU.
– En la India, trabajó para eliminar «una red politizada de más de mil responsables que trabajaban para influir» en las elecciones locales que se celebraban en Delhi en febrero. Facebook nunca reveló públicamente esta red o que la había eliminado.
«Hemos construido equipos especializados, trabajando con expertos destacados, para evitar que los malos actores abusen de nuestros sistemas, lo que ha dado lugar a la eliminación de más de 100 redes de comportamiento falso coordinado ‒dijo la portavoz de Facebook, Liz Bourgeois, en un comunicado‒. Es un trabajo muy involucrado el que estos equipos hacen como su cometido a tiempo completo. Trabajar contra el comportamiento falso coordinado es nuestra prioridad, pero también estamos abordando los problemas de spam y falsas interacciones. Investigamos cada problema cuidadosamente, incluyendo los que plantea la Sra. Zhang, antes de tomar medidas o salir y hacer reclamos públicamente como empresa».
BuzzFeed News no publica el informe completo de Zhang porque contiene información personal. Esta historia incluye extractos completos, cuando es posible, para proporcionar un contexto apropiado.
En su post, Zhang dijo que no quería que se hiciera público por temor a interrumpir los esfuerzos de Facebook para prevenir problemas en torno a las elecciones presidenciales de EE. UU. de 2020, y debido a las preocupaciones por su propia seguridad. BuzzFeed News está publicando partes de su informe que son claramente de interés público.
«Considero que me han puesto en una situación imposible, atrapada entre mi lealtad a la compañía y mi lealtad al mundo en general», dijo. «Lo último que quiero es distraer la atención de nuestros esfuerzos para las próximas elecciones de los EE. UU., pero sé que este artículo probablemente lo hará también internamente».
Zhang dijo que rechazó una indemnización de 64.000 dólares de la empresa para evitar firmar un acuerdo de confidencialidad. Hacerlo le permitió hablar internamente, y usó esa libertad para contar con el poder que tenía para controlar el discurso político.
«Había tantas conductas transgresoras en todo el mundo que quedaba a su evaluación personal qué casos investigar más a fondo, clasificar las tareas e intensificarlas para priorizarlas después».
Ese poder contrastaba con lo que ella expresó como una falta de deseo de los altos dirigentes de proteger los procesos democráticos en los países más pequeños. Facebook, dijo Zhang, priorizó regiones como los Estados Unidos y Europa Occidental, y a menudo sólo actuó cuando presionó repetidamente sobre el tema públicamente en comentarios en Workplace, el tablero de mensajes interno de la empresa, sólo para empleados.
«Sin ningún tipo de supervisión, me dejaron en una situación en la que se me confió una grandísima responsabilidad en mi tiempo libre», declaró. «Un directivo de logística me dijo que la mayor parte del mundo fuera de Occidente era cómo el salvaje Oeste y que yo era su dictador a tiempo parcial. Lo decía como un cumplido, pero mostraba las inmensas presiones que se ejercían sobre mí».
Un exingeniero de Facebook que la conocía le dijo a BuzzFeed News que Zhang era hábil en descubrir redes de cuentas falsas en la plataforma.
«La mayor parte del mundo fuera de Occidente era cómo el salvaje Oeste y yo como su dictador a tiempo parcial».
«Ella es la única persona en este campo en Facebook en quien confié, para ser sincero con este trabajo», dijo el ingeniero, que había visto una copia del informe de Zhang y pidió no ser nombrado porque ya no trabaja en la empresa.
«Mucho de lo que aprendí de ese informe fue impactante incluso para mí, como alguien que a menudo se ha decepcionado por la forma en que la compañía trata a sus mejores empleados».
El informe de Zhang decía que la falta de apoyo interno y las altas expectativas la dejaban sin poder dormir. A menudo, se sentía responsable cuando se producían disturbios civiles en lugares que no priorizaba para la investigación y la acción.
«He tomado innumerables decisiones en este sentido, desde Iraq a Indonesia, desde Italia a El Salvado», señaló. «Individualmente, el impacto fue probablemente pequeño en cada caso, pero el mundo es un lugar vasto».
Aun así, Zhang, no creía que los fallos que observó durante sus dos años y medio en la compañía fueran el resultado de las malas decisiones de los empleados o de los directivos de Facebook; era la falta de recursos y la tendencia de la compañía a centrarse en la actividad global, que planteaba riesgos de relaciones públicas, en lugar de daños electorales o civiles.
«Facebook proyecta una imagen de solidez y competencia al mundo exterior que puede dar lugar a tales teorías, pero la realidad es que muchas de nuestras acciones son descuidos y accidentes fortuitos».
«Simplemente no nos importaba lo suficiente como para detenerlos»
Zhang escribió que llevaba apenas seis meses en el trabajo cuando encontró un comportamiento coordinado falso ―el término interno de Facebook para el uso de múltiples cuentas falsas para impulsar el interés o difundir contenido― que beneficiaba al presidente hondureño Juan Orlando Hernández.
La conexión con el líder hondureño se hizo, escribió Zhang, porque un administrador de la página de Facebook del presidente había estado «manejando felizmente cientos de estas cuentas falsas sin ningún tipo de oposición en un espectáculo de extremo descaro». La investigadora dijo que reportó la operación, que involucraba miles de cuentas falsas, a los equipos de inteligencia de alerta y revisión de políticas de Facebook, los cuales tardaron meses en actuar.
«Los equipos de políticas locales confirmaron que el equipo de marketing del presidente Juan Orlando Hernández había admitido abiertamente organizar la actividad en su nombre», escribió. «Sin embargo, a pesar de la naturaleza descaradamente transgresora de esta actividad, me tomó casi un año desmantelar su operación».
Ese desmantelamiento fue anunciado por Facebook en julio de 2019, pero resultó ser inútil. Pronto, la operación volvió a funcionar, un hecho que Facebook nunca ha revelado.
«Habían regresado a las dos semanas y estaban de vuelta en un volumen similar de usuarios», escribió Zhang, añadiendo que hizo un barrido final de las cuentas falsas en su último día en Facebook. «Un año después, la actividad sigue estando en marcha y funcionando».
En Azerbaiyán, encontró una gran red de cuentas falsas usadas para atacar a los oponentes del presidente Ilhám Alíyev y su partido gobernante, el Partido del Nuevo Azerbaiyán, que usa el acrónimo YAP. Facebook aún no ha revelado la campaña, según Zhang.
La operación detallada en el memorando recuerda a las de la Agencia de Investigación de Internet de Rusia, una granja privada de troles que trató de influir en las elecciones estadounidenses de 2016, porque implicaba «empleados dedicados que trabajaban de 6 a 9 semanas laborales de lunes a viernes para crear millones de comentarios» dirigidos a los miembros de la oposición y a los informes de los medios de comunicación considerados negativos para Aliyev.
«Tal vez pensaron que eran muy listos; la verdad era que simplemente no nos importaba lo suficiente como para detenerlos.»
«Múltiples cuentas oficiales de las divisiones a nivel de distrito del partido político gobernante YAP controlaban directamente muchos de estos activos falsos con impunidad en otra muestra de arrogancia. Tal vez pensaron que eran inteligentes; la verdad era que simplemente no nos importaba lo suficiente como para detenerlos», dijo ella.
Katy Pearce, profesora asociada de la Universidad de Washington que estudia los medios sociales y la tecnología de la comunicación en Azerbaiyán, dijo a BuzzFeed News que las cuentas falsas de Facebook se han utilizado para obstruir a la oposición y los medios independientes en el país durante años.
«Una de las grandes herramientas de los regímenes autoritarios es humillar a la oposición públicamente para que no sea vista como una alternativa creíble o legítima ‒dijo a BuzzFeed News‒. Hay un efecto escalofriante. ¿Por qué publicaría algo si sé que voy a lidiar con miles o cientos de estos comentarios?».
Pearce dijo que el comentario de Zhang en el informe de que Facebook «no se preocupó lo suficiente como para detener» las cuentas falsas y la pesca de arrastre se alinea con su experiencia. «Tienen peces más grandes».
Una persona que administraba cuentas de redes sociales para canales de noticias en Azerbaiyán dijo a BuzzFeed News que sus páginas estaban inundadas de comentarios falsos de Facebook. «Solíamos borrarlos y censurarlos porque no queríamos que la gente que venía a nuestra página se desalentara y no comentara», dijo esa persona, que pidió que no se la nombrara porque no estaba autorizada a hablar en nombre de la empresa. «Pero como los troles son empleados, es fácil para ellos abrir nuevas cuentas». Dijeron que Facebook a veces ha empeorado las cosas al eliminar las cuentas o páginas de activistas de derechos humanos y otras personas después de que los troles las denunciaran. «Tratamos de decirle a Facebook que esta es una persona real que hace un trabajo importante», pero tardó semanas en ser restaurada la página.
Zhang escribió que una investigación de Facebook sobre cuentas falsas y troles en Azerbaiyán está ahora en marcha más de un año después de que ella reportara el problema por primera vez. El día de su partida, ella lo llamó su «mayor asunto pendiente» para detener las cuentas falsas en el país.
«Muchos otros no pensarían nada en mí dedicando esta atención a los Estados Unidos, pero se sorprenden al verme luchando por estos pequeños países», escribió. Y añadió: «En pocas palabras, mis metodologías fueron sistemáticas a nivel mundial, y luché por Honduras y Azerbaiyán porque allí fue donde vi el mayor daño continuo».
“Tengo las manos manchadas de sangre»
En otros ejemplos, Zhang reveló nueva información sobre una red de cuentas falsas a gran escala utilizada para amplificar y manipular información sobre COVID-19, así como una operación de influencia política que utilizó cuentas falsas para influir en las elecciones de 2018 en los EE. UU. y Brasil. Algunos de estos detalles no fueron revelados previamente por Facebook, lo que sugiere que los anuncios de desmontaje regulares de la compañía siguen siendo selectivos e incompletos.
Zhang dijo que Facebook eliminó 672.000 «cuentas falsas de baja calidad» después de que la prensa informara en abril de que algunas de las cuentas habían estado relacionadas con el contenido de COVID-19 en la página del Ministerio de Salud español. Dijo que las cuentas de esa red también se relacionaban con el contenido de las páginas de EE. UU. Facebook no reveló cuántas cuentas eliminó, o que esas cuentas se relacionaban con contenido de otros países, incluyendo los Estados Unidos.
Zhang también compartió nuevos detalles acerca de la escala de actividad falsa durante las elecciones intermedias de 2018 en los EE. UU. y de los políticos brasileños de ese mismo año. «Terminamos eliminando 10,5 millones de reacciones falsas y fans de políticos de alto perfil en Brasil y los EE. UU. en las elecciones de 2018, políticos importantes de todas las variedades en Brasil y un número de políticos de menor nivel en los Estados Unidos».
Una sesión informativa en septiembre de 2018 sobre el trabajo de Facebook en las elecciones de EE. UU. y Brasil reveló que había actuado contra una red en Brasil que usaba «cuentas falsas para sembrar división y compartir desinformación», así como un conjunto de grupos, páginas y cuentas que estaban «amplificando falsamente el compromiso para obtener ganancias financieras». No mencionaba completamente los hallazgos de Zhang.
La escala de esta actividad ―672.000 cuentas falsas en una red, 10,5 millones de interacciones falsas y seguidores― indica que las cuentas falsas activas son un problema mundial, y se utilizan para manipular las elecciones y el debate público en todo el mundo.
Como una de las pocas personas que buscan e identifican cuentas falsas que afectan a la actividad cívica fuera de las regiones «prioritarias», Zhang luchó con el poder que le habían otorgado.
«Nos centramos en regiones perjudiciales y prioritarias como los Estados Unidos y Europa Occidental», escribió Zhang, y añadió que «se hizo imposible leer las noticias y vigilar los acontecimientos mundiales sin sentir el peso de mi propia responsabilidad».
En Bolivia, Zhang dijo que encontró «una actividad falsa de apoyo al candidato presidencial de la oposición en 2019» y decidió no darle prioridad. Meses después, la política boliviana cayó en la confusión, lo que llevó a la renuncia del presidente Evo Morales y a «protestas masivas que provocaron decenas de muertos».
Lo mismo ocurrió en Ecuador, según Zhang, quien «encontró una actividad falsa de apoyo al partido gobernante […] y tomó la decisión de no darle prioridad». La exempleada de Facebook se preguntó entonces cómo su decisión tuvo efectos en la forma en que el Gobierno de Ecuador manejó la pandemia COVID-19 – que ha devastado al país, y si eso hubiera sido diferente si hubiese actuado. Escribió:
He tomado innumerables decisiones en este sentido: desde Irak a Indonesia, desde Italia a El Salvador. Individualmente, el impacto fue probablemente pequeño en cada caso, pero el mundo es un lugar inmenso. Aunque tomé la mejor decisión que pude basándome en los conocimientos disponibles en ese momento, en última instancia fui yo quien tomó la decisión de no presionar más o priorizar más en cada caso, y sé que a estas alturas tengo las manos manchadas de sangre.
Zhang también destapó problemas en la India, el mayor mercado de Facebook, en vísperas de las elecciones locales de Delhi en febrero de 2020. «Trabajé, estando enferma, para acabar con una red sofisticadamente politizada de más de mil responsables que trabajaban para influir en las elecciones».
El mes pasado, las operaciones de Facebook en la India fueron objeto de escrutinio después de que los informes de The Wall Street Journal revelaran que un alto ejecutivo de asuntos públicos en el país había impedido que los empleados locales aplicaran las políticas de discriminación de empresa a los políticos del partido gobernante que difundían discursos de odio antimusulmanes.
«Accidentes de riesgo»
En su «tiempo libre», en 2019, Zhang asumió tareas normalmente reservadas a los gerentes de producto e investigadores investigando a países como Ucrania, Turquía, India, Indonesia, Filipinas, Australia, el Reino Unido, Taiwán «y muchos más».
Zhang dijo que encontró y eliminó «actividades con guiones falsos» en Ucrania que apoyaban a Yulia Tymoshenko, una complicada figura política que ha estado involucrada en controvertidos acuerdos de gas con Rusia pero que tomó un rumbo más prooccidental en su carrera posterior, así como para el ex primer ministro Volodymyr Groysman, un aliado del expresidente Petro Poroshenko. «Volodymyr Zelensky y su facción fue el único grupo importante no afectado», escribió.
En otra parte de su memorándum, Zhang dijo que quería rechazar la idea de que Facebook estaba dirigido por personas maliciosas con la esperanza de lograr un resultado particular. No fue así, escribió, atribuyendo las acciones a «accidentes descuidados y fortuitos».
«El año pasado, cuando bloqueamos a los usuarios para que no nombraran al soplón de Ucrania, olvidamos cubrir los hashtags hasta que yo intervine», escribió.
Pero también remarcó el hábito de Facebook de priorizar las relaciones públicas por encima de los problemas del mundo real. «Es un secreto a voces dentro del espacio de integridad cívica que las decisiones a corto plazo de Facebook están motivadas en gran medida por las relaciones públicas y el potencial de atención negativa», escribió, señalando que se le dijo directamente en una cumbre de 2020 que cualquier cosa publicada en el New York Times o el Washington Post obtendría una elevada prioridad.
«Es por eso que he visto que las prioridades de las escaladas se disparan cuando otros empiezan a amenazar con ir a la prensa y por qué fui informada por un líder de mi organización de que mi trabajo cívico no tenía impacto, bajo el razonamiento de que, si los problemas fueran significativos, habrían atraído la atención, convertido en un fuego de la prensa, y convencido a la empresa de dedicar más atención al espacio».
Zhang mencionó un ejemplo, en febrero de 2019, cuando un investigador de comunicaciones estratégicas de la OTAN se acercó a Facebook, alertando a la compañía de que había «obtenido» actividad falsa rusa «en una figura política estadounidense de alto perfil que no atrapamos». Ese investigador dijo que planeaban informar al Congreso al día siguiente.
«Investigué rápidamente el caso, determiné lo que estaba sucediendo y eliminé la actividad, apagando el fuego inmediato», escribió Zhang. «Tal vez motivado por la experiencia, el mismo investigador intentó el mismo experimento dentro de un mes o dos, esperando medio año después antes de enviar el informe a la prensa y, finalmente, causando el fuego de relaciones públicas».
«Los recursos humanos son limitados»
Además de ejemplos concretos de todo el mundo, Zhang ofreció una visión del funcionamiento interno de Facebook. Criticó que su equipo se centrara en cuestiones relacionadas con «el 99 % de la actividad que es esencialmente spam».
«En general, el enfoque de mi organización ―y de la mayor parte de Facebook― se centraba en los problemas a gran escala, un enfoque que nos fijaba en el spam», dijo. «El aspecto cívico se descontó por su pequeño volumen, se ignoró su impacto desproporcionado».
Zhang esbozó los procesos políticos dentro de la propia Facebook. Dijo que la mejor manera de llamar la atención sobre su trabajo era no pasar por los canales de denuncia adecuados, sino publicar sobre los problemas en el tablón de mensajes interno de los empleados de Facebook para ejercer presión.
«En la oficina, me di cuenta de que mis puntos de vista no se respetaban a menos que actuara como una imbécil arrogante».
«En la oficina, me di cuenta de que mis puntos de vista no se respetaban a menos que actuara como una imbécil arrogante», dijo Zhang.
Cuando pidió a la empresa que hiciera más en términos de encontrar y detener la actividad maliciosa relacionada con las elecciones y la actividad política, dijo que le dijeron que «los recursos humanos son limitados». Y cuando se le ordenó que dejara de centrarse en el trabajo cívico, «me dijeron que Facebook ya no tendría más necesidad de mis servicios si me negaba».
Zhang fue despedida este mes y publicó su memorándum en su último día, incluso después de ofrecerse a permanecer durante las elecciones como voluntaria no remunerada. En su despedida, animó a sus colegas a permanecer en Facebook y arreglar la empresa desde dentro.
«Pero no necesitas ―y no deberías― hacerlo solo», escribió. «Encuentra a otros que compartan tus convicciones y valores para trabajar juntos en ello. Facebook es un proyecto demasiado grande para que una sola persona lo arregle».