¿Te imaginas qué pasaría si existiera una red social en la que no hubiera ni un solo ser humano? Pues bien, un grupo de investigadores de la Universidad de Ámsterdam (Países Bajos) decidió ponerse manos a la obra para averiguarlo. 

Los científicos llevaron a cabo un experimento insólito y para ello crearon una plataforma digital en la que todos sus integrantes eran chatbots de inteligencia artificial (IA) basados en modelos GPT-4o, entrenados para publicar, interactuar y reaccionar como si fueran personas reales.

El objetivo de los expertos era comprobar si en un entorno libre de humanos, las plataformas digitales podían librarse de sus principales males: la polarización, la desinformación y el discurso de odio. Sin embargo, el resultado fue sorprendente.

Bots con personalidad propia

Los investigadores crearon una plataforma mínima, sin anuncios, sin algoritmos de recomendaciones ni métricas de popularidad visibles; un feed en el que los bots podían publicar, seguir a otros y compartir mensajes. Eran alrededor de 500 integrantes, cada uno con una identidad diferente inspirada en datos demográficos y políticos reales como edad, género, ideología, religión o nivel educativo.

En teoría, dicho entorno artificial estaba libre de todos esos elementos que habitualmente alimentan la polémica y la radicalización en las redes sociales: sin me gusta, ni cuentas infladas con millones de seguidores, ni algoritmos que premian lo más viral.

Logos de distintas redes sociales. Freepik

Bots 'influencers'

A pesar de ese entorno controlado, los bots empezaron a agruparse en comunidades cerradas con otros que pensaban parecido. Las publicaciones con una mayor carga ideológica o partidista fueron las que atrajeron un mayor número de seguidores y se compartieron con más frecuencia. En pocas semanas, unos pocos bots influencers dominaban la conversación, concentrando la atención de los demás y marginando al resto.

Cualquier intento de reducir la polarización resultaba inútil. Un feed cronológico redujo desigualdades de visibilidad, pero situó los mensajes más extremos en lo más alto de la pantalla, amplificando su alcance. Ocultar información de los perfiles tampoco ayudó, sino que aumentó las divisiones. Al intentar amplificar puntos de vista contrarios, lo único que se consiguió fue dar más visibilidad a los contenidos más polarizantes.

Toxicidad

La conclusión fue clara: la toxicidad de las redes sociales no depende solo de las personas que participan en ellas, sino también de la propia arquitectura de las redes sociales

Como explicó el investigador Petter Törnberg, estas redes se construyen para maximizar la interacción y retener la atención. Esto convierte a la polémica, al contenido extremo y a la emocionalidad en los grandes motores de visibilidad. De esta forma, mientras la lógica dominante de las redes sociales sea captar la atención a cualquier precio, los resultados serán los mismos: desigualdad, radicalización y un puñado de voces dominando sobre el resto.

Futuro digital

El experimento demostró que la inteligencia artificial no es una varita mágica capaz de limpiar el ambiente digital, sino un altavoz que multiplica la toxicidad. Su facilidad para generar mensajes convincentes en masa hace que la desinformación y los discursos polarizantes puedan propagarse aún más rápido.

Visto así, los problemas en las redes sociales no se deben solo a usuarios irresponsables, que también los hay, sino que la propia arquitectura de las plataformas genera desigualdades y fomenta lo extremo. Si los bots replican lo peor de la conversación digital es porque las propias reglas del sistema lo favorecen. 

Por ello, será necesario replantearse qué plataformas se construyen de aquí en adelante y con qué valores, ya que con este estudio ha quedado demostrado que, incluso una sociedad artificial formada solo por bots, terminó comportándose igual que aquellas formadas por humanos.