n la Casa Blanca, Donald Trump estaba viendo la insurrección del 6 de enero en vivo por televisión. El espectáculo lo emocionó. Trump compartió un mensaje que acababa de tuitear con sus 35 millones de seguidores en Facebook: "Mike Pence no tuvo el coraje de hacer lo que debería haberse hecho para proteger nuestro país y nuestra Constitución. ¡Estados Unidos exige la verdad!"

Incluso para los estadounidenses acostumbrados a los estallidos del presidente, el ataque de Trump contra su propio vicepresidente, en un momento en que Pence estaba siendo perseguido por la mafia que Trump envió al Capitolio, fue algo completamente diferente.

Los horrorizados empleados de Facebook se apresuraron a promulgar medidas de "romper el cristal", pasos que podrían tomar para sofocar el uso posterior de su plataforma para incitar a la violencia.

Esa noche, Mark Zuckerberg, fundador y presidente de Facebook, publicó un mensaje en la plataforma de chat interna de Facebook, conocida como Workplace, bajo el título "Employee FYI": "Este es un momento oscuro en la historia de nuestra nación", escribió Zuckerberg, "y sé que muchos de ustedes están asustados y preocupados por lo que está sucediendo en Washington, DC. Personalmente, estoy entristecido por esta violencia de la mafia".

Sin embargo, los empleados de Facebook no estaban tristes. Estaban enojados y, muy específicamente, enojados con Facebook. Su respuesta a Zuckerberg fue clara: esto es culpa nuestra. Algunos dijeron: "Con el debido respeto, pero ¿no hemos tenido tiempo suficiente para descubrir cómo manejar el discurso sin permitir la violencia?" respondió otro miembro del personal. "Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control". "Uno de los días más oscuros en la historia de la democracia y el autogobierno", escribió otro miembro del personal. "La historia no nos juzgará con amabilidad".

Los empleados de Facebook han entendido desde hace mucho tiempo que su empresa socava las normas y restricciones democráticas en Estados Unidos y en todo el mundo.

Frances Haugen, la denunciante y exingeniera de Facebook que testificó ante el Congreso a principios de Octubre, presentó una serie de divulgaciones sobre Facebook a la Comisión de Bolsa y Valores y al Congreso antes de su testimonio. Una version editada de esos documentos se publicó en su momento en los medios.

Estos documentos no dejan lugar a dudas sobre el papel crucial de Facebook en el avance de la causa del autoritarismo en Estados Unidos y en todo el mundo.

Facebook no es una herramienta pasiva, sino un catalizador. Ha contribuido a que la coordinación fuera muy visible a escala mundial. La plataforma no solo ayudó a reclutar participantes, sino que también ofreció a las personas una sensación de fortaleza en número. Facebook demostró ser una máquina de publicidad perfecta para la insurrección.

En abril de 2020, de acuerdo con las presentaciones de Frances Haugen ante la SEC, los empleados de Facebook recomendaron ajustar el algoritmo para que News Feed despriorizara la aparición de contenido para las personas en función del comportamiento de sus amigos de Facebook.

Hasta ese momento, si su amigo de Facebook veía o leía acerca de una teoría de la conspiración y reaccionaba a ella, el algoritmo de Facebook también podría mostrársela a usted. El algoritmo trataba cualquier interacción en su red como una señal de que valía la pena compartir algo. Pero ahora los trabajadores de Facebook querían construir frenos para ralentizar esta forma de compartir.

Los experimentos demostraron que este cambio impediría la distribución de contenido de odio, polarización e incitación a la violencia en las fuentes de noticias de las personas. Pero Zuckerberg "rechazó esta intervención que podría haber reducido el riesgo de violencia en las elecciones de 2020", dice la presentación de Haugen a la SEC.

Un mensaje interno sobre el razonamiento de Zuckerberg dice que quería evitar novedades que se interpusieran en el desarrollo de "interacciones sociales significativas". Pero según la definición de Facebook, dicen sus empleados, la interacción se considera "significativa" incluso cuando implica intimidación, incitación al odio y la posibilidad de compartir contenido dañino.

Por lo que se publica en EEUU, parece que muchos trabajadores de Facebook están tratando concienzudamente de resolver estos problemas. Al mismo tiempo, estos mismos empleados muestran tener poca o ninguna fe en el liderazgo de Facebook.

Una gran cantidad de empleados de Facebook (personas que presumiblemente entienden su empresa tan bien o mejor que los observadores externos) creen que su empleador está moralmente en bancarrota.

Muchos empleados actuales y anteriores de Facebook describen la cultura de la empresa como una en la que las tácticas efectivas para hacer que Facebook sea más seguro son revertidas por el liderazgo o nunca aprobadas en primer lugar.

Esa cultura empresarial rota ha producido una plataforma rota: un ecosistema algorítmico en el que los usuarios son empujados hacia contenidos cada vez más extremos y donde Facebook expone a sus usuarios a sabiendas a teorías de la conspiración, desinformación e incitación a la violencia.

Un algoritmo puede ser simplemente un gran medio tonto para un fin, una forma torpe de maniobrar en una red dinámica y masiva hacia el resultado deseado. Pero el enorme tamaño de Facebook le da un poder tremendo e inestable. Facebook accede a poblaciones enteras de personas, las empuja hacia el radicalismo y luego dirige a los radicalizados unos hacia otros y contra otros.

Como se afirma en diversos medios, la esencia de Facebook es tecnológicamente simple e increíblemente peligrosa: una caja negra de sensores diseñados para absorber señales ambientales y producir potencialmente una destrucción asegurada.

Cuando la empresa más poderosa del mundo posee un instrumento para manipular a miles de millones de personas, un instrumento que solo ella puede controlar y que sus propios empleados dicen que está muy dañado y es peligroso, es muy posible que debamos prestar atención.

Zuckerberg ha cambiado el nombre a su empresa (ahora la llama Meta) y, a partir de los sucesos del 6 de Enero, ha tratado de mitigar el daño, que es reputacional y muy grave, pero que también puede suponer la ruptura de Facebook/Meta por parte del gobierno federal estadounidense si se prueban sus prácticas monopolísticas.

No se puede descartar tampoco que surjan cargos de tipo penal contra personas específicas de Facebook por alentar una insurrección y por los daños causados a la democracia de EEUU.

Facebook sabe que su plataforma a veces se usa para facilitar la violencia social a gran escala. Podría haber actuado para evitarlo. Pero no lo ha hecho.

Podría hacer cumplir sus políticas de manera consistente independientemente del poder político del usuario. Podría optar por optimizar su plataforma para la seguridad y la calidad en lugar de para el crecimiento. Podría modificar su algoritmo para evitar la distribución generalizada de contenido dañino. Facebook podría crear un panel transparente para que todos sus usuarios puedan ver lo que se está volviendo viral en tiempo real. Podría hacer públicas sus reglas sobre la frecuencia con la que los grupos pueden publicar y la rapidez con la que pueden crecer. También podría limitar automáticamente los grupos cuando crecen demasiado rápido y limitar la tasa de viralidad del contenido que se propaga demasiado rápido. Podría alertar a aquellos usuarios que deambulan por los rincones más peligrosos de Facebook y a aquellos que se encuentran con niveles desproporcionadamente altos de contenido dañino. Podría obligar a sus empleados a que eviten que los usuarios encuentren estas versiones demasiado dañinas de la plataforma, evitando así que esas versiones existan. Podría hacer todas estas cosas y podría haberlas hecho. Pero no ha sido así. Y ahora quizá sea demasiado tarde. US Fulbright Professional Ambassador, Massachusetts Institute of Technology, London School of Economics