Buena parte del malestar en relación con la democracia tiene que ver con el hecho de que el sistema político no nos conoce suficientemente y, si somos sinceros, nosotros mismos tampoco no sabemos muy bien lo que nos conviene, no somos capaces de tramitar toda la información disponible y desconocemos en gran medida las opciones que están a nuestra disposición. Hay críticas al “capitalismo de vigilancia” (Zuboff) por entender que quien nos gobierna (los estados o las empresas) saben demasiado de nosotros, pero también podría criticarse lo contrario: que no conocen suficientemente nuestras preferencias e intereses, que no nos representan adecuadamente y no saben lo que queremos. La base de este malestar sería la ignorancia del poder y no su exceso de saber acerca de nosotros. Otra dimensión de esta ignorancia tiene un carácter temporal. El tiempo de la política establece unos momentos solemnes de verificación de la opinión popular (elecciones, referendums, consultas, encuestas, rendiciones de cuentas) a los que siguen largos periodos, demasiado largos, de delegación, confianza e incluso traición a los electores. Pudieron conocer lo que queríamos en un determinado momento puntual (y en unos pocos asuntos), pero han dejado de saberlo, por así decirlo. Tenemos entonces tres problemas de ignorancia: la de los gobernantes, la de los gobernados y la que procede de esa discontinuidad en la verificación de la voluntad popular.
¿Qué tal entonces si dispusiéramos de una tecnología que permitiera cubrir esas deficiencias, es decir, que gobernantes y gobernados estuviéramos continuamente informados acerca de todo lo que fuera relevante para nuestras decisiones colectivas? La promesa de los algoritmos consiste precisamente en que si les dejamos escudriñar los datos que hemos generado inadvertidamente pueden determinar quiénes somos, qué necesitamos y qué queremos. Podríamos denominar a esta nueva forma de democracia una reco-cracia, es decir, una democracia en la que el demos se constituye como el agregado final de todas las recomendaciones recibidas. Sería una democracia implícita, donde lo que queremos de hecho se constituiría como el nuevo soberano. Los ciudadanos seríamos consultados implícitamente sobre las más variadas cuestiones, sin sobrecargarnos con excesiva complejidad y asegurando que nuestros puntos de vista serán tenidos en cuenta en la toma de decisiones.
El mundo imaginado por la razón algorítmica se rige por la promesa de satisfacer nuestras preferencias, una vez que se supone capaz de identificarlas con exactitud, sin ninguna voluntad de prescripción autoritaria. Y a este respecto tengo una doble sospecha: que la racionalidad algorítmica implique una intromisión indebida y un recorte también injustificado, que en nuestra voluntad política así concebida sean otros los que deciden qué hemos de preferir y que se dé por sentado que solo podemos preferir lo que hemos preferido en el pasado.
La primera objeción es que se trate realmente de nuestras preferencias. ¿Están ofreciéndonos lo que queremos o terminamos queriendo lo que nos ofrecen? Hay una dimensión de construcción de nuestras preferencias por los algoritmos de recomendación; aunque se presenten como quien meramente identifica las preferencias, pueden estar induciéndolas en una cierta medida.
La segunda objeción es que sean preferencias que correspondan al pasado y que determinen excesivamente nuestras preferencias futuras. Los algoritmos de personalización y las recomendaciones se configuran a partir de la información sobre las decisiones, intereses y preferencias pasadas. El problema de estos sistemas basados en el machine learning es que nos dan “más de lo mismo”. Este modelo es especialmente inadecuado para aquellas actividades que, como la política en una sociedad democrática, tienen un propósito de intervenir en el mundo con el objetivo de cambiarlo. Un algoritmo no podría haber generado movimientos como el #MeToo o el #Seacabó, que implican una ruptura deliberada con las prácticas machistas del pasado. ¿Cómo queremos entender la realidad de nuestras sociedades si no introducimos en nuestros análisis, además de nuestros comportamientos de hecho, las enormes asimetrías en términos de poder, las injusticias de este mundo y nuestras aspiraciones de cambiarlo? ¿Estamos dispuestos a que los datos que alimentan los algoritmos conviertan a nuestro pasado en nuestro futuro?
La era digital nos hace soñar con la horizontalización del poder, la apoteosis de las redes, el retorno del individuo soberano, pero en vez de liberar la espontaneidad, posibilitar la bifurcación y la alteración imprevisible, tenemos un sistema que nos encierra en el cálculo de lo posible. En este sentido, los sistemas de recomendación, pese a lo que parece, están fuera del control de los sujetos; se basan en el comportamiento no reflexivo más que en las preferencias expresas u objeto de deliberación. Se trata de una forma de conocimiento y comunicación que excluye la auto-reflexión en el proceso de aprendizaje acerca de sí mismo. La gobernanza algorítmica es muy despolitizadora. La política en la era digital tiene que considerar a los usuarios como sujetos reflexivos y políticos, para lo cual debemos moderar el peso del pasado en la gobernanza algorítmica y proteger la indeterminación del futuro. Catedrático de Filosofía Política, investigador Ikerbasque en la Universidad del País Vasco y titular de la Cátedra Inteligencia Artificial y Democracia del Instituto Europeo de Florencia