Investigadores de Facebook habían advertido que los sistemas de seguridad de la plataforma no estaba abordando adecuadamente el problema de los grupos de odio que difunden contenidos y debates en la red social, por lo que destacaron la necesidad de tomar acciones al respecto en un informe presentado en agosto, en plena campaña electoral estadounidense y cinco meses antes del impactante ataque al Capitolio del 6 de enero en Washington.
En el reporte, los especialistas en datos indicaron a los ejecutivos de la compañía de Mark Zuckerberg que en varios “grupos” privados circulaban a diario “llamadas entusiastas a la violencia”.
La mayoría de estos foros son de ideología conservadora, añadió el documento, y también advierte que algunos son administrados por usuarios extranjeros.
“Nuestros actuales sistemas de integridad no están abordando estos problemas”, subrayaron los investigadores, que destacaron que de los 100 grupos más activos en Estados Unidos, el 70% tenía contenido no recomendable por estar ligado al odio, la desinformación, la intimidación y el acoso.
“Tenemos que hacer algo para impedir que estas conversaciones se produzcan y crezcan tan rápidamente”, reclamaron.
Estos grupos estuvieron utilizando las herramientas de Facebook para ampliar su audiencia, mientras toleraban o incluso incentivaban los mensajes de odio.
Por ejemplo, uno de estos foros, se dedicaba a circular las noticias más incendiarias del día para “alimentar a una multitud vil que llama inmediata y repetidamente a la violencia”, exacerbando las cuestiones de fanatismo político.
Otro, llamado “Trump Train 2020, Red Wave” (Tren Trump 2020, ola roja), tenía “posibles vínculos macedonios” y llegó a tener más de 2 millones de miembros antes de su clausura en septiembre.
Además, un grupo con 58 mil integrantes estaba dirigido por usuarios que se presentaban como seguidores de Trump, pero estaba manejado por “albaneses con motivaciones económicas” que publicaban enlaces a portales de noticias falsas.
Si bien algunos tenían un alcance de millones de visitas, otros tenían la configuración secreta, por lo que nadie fuera de él podía saber que existía ni enterarse de su contenido.
Pero algunos mensajes tenían una altísima carga de violencia. “Espero que alguien le dispare pero que viva y quede paralizada”, dijo un usuario sobre la congresista demócrata Ilhan Omar, varias veces criticada por Trump.
“Tal vez una bala le haría bien”, agregó otra cuenta. Y una sugerencia también apuntaba a una ejecución: “Que vuelvan los ahorcamientos públicos”.
Estos comentarios se publicaron en el grupo “Club de Fans de Kayleigh McEnany”, la ex secretaria de prensa de la Casa Blanca, aunque no está vinculado directamente a ella. “Están creando deliberadamente esta atmósfera tóxica”, escribieron los investigadores sobre este foro, donde se difundían noticias falsas y otras amenazas de muerte contra activistas de Black Lives Matter.
Facebook lo había marcado 174 veces por desinformación en tres meses, pero seguía en funcionamiento.
Tomó algunas medidas que muchos consideran insuficientes. En 2019, la aplicación “Grupos” fue rediseñada para darle un impulso, supuestamente con el fin de construir comunidades “saludables”.
Tras el informe, la red social cerró algunos de los grupos más problemáticos y dejó de mostrar a otros en las pestañas de recomendación, pero algunas restricciones fueron solo temporales, sin imponer las medidas recomendadas por los analistas.
Por ello, después de la elección ganada por Joe Biden, pese a que el clima de controversia se mantenía por los reclamos infundados del presidente y sus seguidores, algunos grupos reanudaron su actividad con intensidad.
Fue recién después de la conmoción del asedio al Capitolio a inicios de enero que Facebook volvió a tomar medidas, retirando otros grupos que incumplían las normas de conducta.
Un día antes del asalto, un periodista de BuzzFeed, Ryan Mac, había denunciado cómo los posibles manifestantes se organizaban en grupos privados y que el propio algoritmo de Facebook sugería unirse a grupos similares.
En los últimos días, Facebook hizo permanente la suspensión de estas recomendaciones luego de una carta de congresistas demócratas que exigían la medida. Además, planea limitar la visibilidad del contenido político y los administradores de los grupos estarán obligados a supervisar el contenido que comparten los usuarios.
Antes de esto, según la investigación interna, muchos administradores de foros enseñaba a los miembros a publicar material ofensivo de forma que escapara a los filtros automáticos de la red.