Hace unos días les contamos como el consejo asesor de contenido advirtió a Facebook que debía ser más transparente sobre sus políticas de moderación de contenido y la creación de listas blancas.
Esto sucedió luego de que una fuente le informara al Wall Street Journal que los mecanismos de la empresas son permisivos con las figuras más populares de sus redes sociales.
Los documentos internos aportados como evidencia mostraban que Facebook no solo miraba para otro lado cuando los VIP rompían las reglas sino que sabía como Instagram afectaba la salud mental de los adolescentes.
Esta fue una de las causas de la suspensión de la versión de Instagram para los menores de 13 años.
Testimonio
La fuente del WSJ ha decidido dar la cara. Frances Haugen ha aparecido en el conocido programa periodístico 60 minutos.
Haugen llegó a Facebook en 2019, trabajó en aspectos relacionados con la democracia y la desinformación y fue líder de producto hasta dejar la empresa en mayo de 2021.
La ejecutiva realizó todos los pasos legales para cubrir su espalda, incluso se presentó en el registro de fuentes de la Comisión de Bolsa y Valores de los Estados Unidos para obtener su protección.
Whistleblower Frances Haugen is a data scientist from Iowa with a computer engineering degree and a Harvard MBA. She told us the only job she wanted at Facebook was to work against misinformation because she had lost a friend to online conspiracy theories. https://t.co/csgaRe6k5h pic.twitter.com/tSNav057As
— 60 Minutes (@60Minutes) October 3, 2021
Palabras vacías
Haugen apuntó que Facebook actúa de una forma que no se corresponde con sus declaraciones públicas.
Sobre el ataque al capitolio en Estados Unidos por parte de seguidores del ex presidente Donald Trump, comentó: “Facebook ha promocionado su trabajo para combatir la desinformación y el extremismo violento relacionado con las elecciones de 2020 y la insurrección (…) En realidad Facebook sabía que sus algoritmos y plataformas promovían este comportamiento dañino, y no realizó ninguna recomendación interna o implementó contramedidas”.
Economía del odio
Haugen marca 2018 como un año clave, dado que fue cuando la plataforma cambió sus algoritmos para las líneas de tiempo de las noticias de forma tal que le diera prioridad al contenido que producía más interacción. Esto hizo que el material más divisivo se convirtiera en el más prominente, porque es más fácil inspirar el enojo que otras emociones.
Frances señala que “Facebook sabe que si cambia el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, hará menos clics en los avisos y producirá menos dinero”.