Los "Facebook Papers": las filtraciones que cuestionan muy duro el gigante de las redes sociales
| 25 de Octubre de 2021 | 12:47

Publicaciones de parte de un grupo de medios y nuevas filtraciones de varios ex empleados de Facebook al diario The Washington Post describen cómo la empresa cayó en la desidia tras las elecciones presidenciales en Estados Unidos de noviembre pasado y desactivó medidas de precaución antes del asalto al Capitolio del 6 de enero. Pero también quedaron expuestas varios puntos oscuros que oportunamente fueron denunciados por Frances Haugen, quien tras marcharse de la empresa se convirtió en una informante que aportó mucha información respecto del funcionamiento de una de las principales redes sociales.
Según el artículo publicado este viernes, muchos de los trabajadores que durante los meses previos a los comicios habían formado parte del equipo de prevención contra noticias falsas y contenidos de odio fueron cambiados de cargo tras las elecciones.
Además, Facebook dio marcha atrás con decenas de medidas que había activado para evitar el caos en la jornada electoral como la supresión de ciertos grupos, y el equipo de integridad cívica fue prácticamente desbandado por temor a las críticas que sus miembros dedicaban con cada vez mayor frecuencia a la propia empresa.
El artículo fue elaborado con base en entrevistas del Washington Post con varios ex empleados anónimos y con documentación interna de Facebook entregada al Gobierno estadounidense por parte de la única informante que hasta el momento ha revelado su identidad (Frances Haugen), quien testificó ante el Congreso a principios de octubre.
Según la información periodística, el 6 de enero, cuando se produjo el asalto al Capitolio por parte de miles de simpatizantes, algunos de ellos armados, del ex presidente Donald Trump, los empleados de Facebook expresaron "rabia y lamento" por no haber dado mayor importancia a los "signos de alerta".
Ese día, las denuncias en Facebook por parte de usuarios que habían hallado noticias falsas se dispararon a 40.000 por hora, y en Instagram (propiedad de la compañía), la cuenta más denunciada por incitar a la violencia fue la del entonces todavía presidente Trump.
Facebook se encuentra desde hace semanas en el punto de mira en todo el mundo después de que Haugen declarase ante un subcomité del Senado estadounidense que la firma antepone sus beneficios a la seguridad de los usuarios y oculta que sus plataformas son nocivas para los menores, fomentan la división social y debilitan la democracia.
Haugen, que previamente filtró documentos internos de la compañía al Wall Street Journal, hizo ante el Senado un retrato despiadado de la empresa, porque durante el tiempo que estuvo trabajando en ella se dio cuenta de una "verdad devastadora": Facebook oculta información al público y a los gobiernos.
Por su parte, el consejero delegado y cofundador de Facebook, Mark Zuckerberg, negó que su compañía anteponga los beneficios a la seguridad y el bienestar de los usuarios, y dijo que "muchas de las acusaciones no tienen sentido" y que no reconoce "la falsa imagen de la compañía que se está pintando".
Los incidentes en el Capitolio y la "revuelta" en Facebook
Mientras los partidarios de Donald Trump irrumpían en el Capitolio de Estados Unidos el 6 de enero, enfrentándose a la policía y obligando a los legisladores a esconderse, una insurrección de otro tipo tenía lugar dentro de la mayor empresa de redes sociales del mundo.
A miles de kilómetros de distancia, en California, los ingenieros de Facebook ajustaban presurosos los controles internos para frenar la propagación de desinformación y contenidos incitadores. Las medidas de emergencia (algunas de las cuales se revirtieron después de las elecciones de 2020) incluyeron vetar a Trump en Facebook, congelar los comentarios en los grupos con antecedentes de discursos de odio, filtrar el lema "Paren el robo" y etiquetar a Estados Unidos como "Lugar de alto riesgo temporal" por violencia política.
Al mismo tiempo, la frustración dentro de Facebook estalló por lo que algunos vieron como una respuesta vacilante de la empresa al aumento del extremismo en Estados Unidos. ''¿No hemos tenido tiempo suficiente para averiguar cómo gestionar el discurso sin permitir la violencia?'', escribió un empleado en un tablero de mensajes interno en el momento álgido de los disturbios del 6 de enero. "Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control", agregaba.
Los nuevos documentos internos proporcionados por la exempleada de Facebook convertida en informante Frances Haugen permiten un inusual vistazo a cómo la empresa parece simplemente haberse topado con los disturbios del 6 de enero. Rápidamente quedó claro que, incluso después de años bajo el microscopio por la insuficiente vigilancia de su plataforma, la red social había pasado por alto cómo los participantes en los disturbios pasaron semanas prometiendo (dentro de Facebook) impedir que el Congreso certificara la victoria electoral de Joe Biden.
Los documentos también parecen reforzar la afirmación de Haugen de que Facebook antepuso su crecimiento y sus ganancias a la seguridad pública, permitiendo echar una mirada más clara hasta ahora a cómo los impulsos contradictorios de Facebook (salvaguardar su negocio y proteger la democracia) chocaron en los días y semanas previos al intento de golpe de Estado del 6 de enero.
Este artículo se basa en parte en las declaraciones que Haugen hizo a la Comisión de Bolsa y Valores de Estados Unidos (SEC) y que el asesor jurídico de Haugen proporcionó al Congreso con restricciones. Las versiones censuradas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones periodísticas.
Lo que Facebook denominó medidas tipo "Rompa el cristal en caso de emergencia", puestas en marcha el 6 de enero, eran esencialmente un conjunto de opciones diseñadas para frenar la difusión de contenidos peligrosos o violentos que la red social había utilizado por primera vez en la temporada electoral de 2020. Hasta 22 de esas medidas fueron revocadas en algún momento después de las elecciones, según una hoja de cálculo interna que analiza la respuesta de la compañía.
"En cuanto las elecciones concluyeron, las volvieron a desactivar o cambiaron la configuración a lo que era antes, para priorizar el crecimiento sobre la seguridad", dijo Haugen.
Un informe interno de Facebook posterior al 6 de enero (reportado previamente por BuzzFeed) reprochaba a la compañía por tener un enfoque "poco sistemático" ante el rápido crecimiento de las páginas "Paren el robo" las fuentes de desinformación relacionadas y los comentarios violentos e incendiarios.
Facebook dice que la situación es más matizada y que calibra cuidadosamente sus controles para reaccionar rápidamente a los picos de contenido de odio y violencia, como hizo el 6 de enero. La compañía afirma que no es responsable de las acciones de los incitadores y que tener controles más estrictos antes de ese día no habría ayudado.
Las decisiones de Facebook de introducir o eliminar gradualmente determinadas medidas de seguridad tomaron en cuenta señales de su propia plataforma, así como información de las fuerzas del orden, dijo la portavoz Dani Lever. "Cuando esas señales cambiaron, también lo hicieron las medidas", apuntó.
Algunos empleados estaban descontentos con la gestión de contenidos problemáticos por parte de Facebook incluso antes de los disturbios. Una persona que abandonó la empresa en 2020 dejó una larga nota en la que denunciaba que las herramientas nuevas y prometedoras, respaldadas por investigaciones sólidas, estaban siendo limitadas por la propia empresa, por "miedo a las respuestas del público y de las partes interesadas en la política", lo que podía leerse como preocupación por las reacciones negativas de los aliados de Trump y de los inversionistas.
"Del mismo modo (aunque todavía más preocupante), he visto que se han retirado salvaguardas ya desarrolladas y en funcionamiento por las mismas razones", escribió el empleado, cuyo nombre fue tachado.
Investigaciones realizadas por Facebook bastante antes de la campaña de 2020 dejaron pocas dudas de que su algoritmo podía representar un serio peligro de propagar desinformación y posiblemente radicalizar a los usuarios.
Un estudio de 2019, titulado "El viaje de Carol a QAnon", hecho con un usuario de prueba sobre riesgos de desinformación y polarización hallados a través de sistemas de recomendación, describía los resultados de un experimento efectuado con una cuenta de prueba creada para reflejar los puntos de vista de una mujer ficticia, de 41 años y residente en Carolina del Norte, un prototipo de "conservador fuerte", pero no extremista. Esta cuenta, bajo el nombre falso de Carol Smith, indicaba tener preferencias por fuentes noticiosas comunes, como Fox News, seguía a grupos humorísticos que se burlaban de los liberales, se decía cristiana y era simpatizante de Melania Trump.
En un solo día, las recomendaciones de páginas para esta cuenta generadas por los algoritmos de Facebook habían evolucionado a un "estado bastante preocupante, polarizante", halló el estudio. Para el segundo día, los algoritmos recomendaban más contenido extremista, incluso un grupo vinculado a QAnon, al que la usuaria falsa no se unió porque no estaba intrínsecamente atraída por las teorías de la conspiración.
Una semana después, la sección de noticias de la usuaria de prueba contenía "una andanada de contenido extremista, conspirativo y explícito", como publicaciones que repetían la mentira de que Barack Obama no nació en Estados Unidos y que vinculaban a Bill y Hillary Clinton con el asesinato de un exsenador del estado de Arkansas. Gran parte de ese contenido había sido publicado por grupos de dudosa reputación operados desde el extranjero o por administradores con antecedentes de violar las normas de Facebook sobre las actividades de bots.
Estos resultados llevaron al investigador, cuyo nombre fue ocultado por la informante, a recomendar medidas de seguridad que iban desde la retirada de contenido con referencias conspirativas conocidas y la desactivación de las insignias de "contribuidor principal" para comentaristas que difundieran desinformación, a rebajar el número de seguidores requerido para que la red social verifique la identidad del administrador de una página. Entre los demás empleados de Facebook que tuvieron acceso a la investigación, la respuesta fue casi de un apoyo unánime.
Los documentos de acusación presentados por la fiscalía federal contra los presuntos autores del asalto al Capitolio contienen ejemplos de la unión de personas con ideas similares. Según la Fiscalía, una supuesta líder del grupo miliciano Oath Keepers utilizó Facebook para discutir la formación de una "alianza" y la coordinación de planes con otro grupo extremista, los Proud Boys, antes de los disturbios en el Capitolio.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE