Un concejal de un municipio de Euskadi abre el portátil antes del pleno. El sistema de inteligencia artificial contratado por su partido, alojado en un servidor en la nube, le sugiere recortar un 18 % la partida de vivienda social y trasladar el dinero a incentivos fiscales para jóvenes profesionales. El algoritmo aporta tres gráficos, una nube de probabilidades, una reflexión con conclusiones y una nota final: «Confianza alta». El edil, que estudió Derecho, no es capaz de comprender cómo se ha generado ese informe ni qué factores importantes ha omitido la máquina. Pero asiente: «Si lo dice la IA…». Hace unos años habría pedido un informe a los técnicos, se habría reunido con afectados y con expertos en la materia. Su propuesta política se habría construido sobre innumerables variables no objetivables, intuiciones y sesgos ideológicos. Ahora basta con pulsar Enter y delegar. Quince minutos más tarde defenderá la propuesta sin poder explicar sus fundamentos. ¿Quién habrá decidido realmente?

La escena ya no pertenece a la ciencia ficción. Desde 2022, más de 600 proyectos de IA operan en administraciones europeas. Chatbots tributarios, detectores de fraude, algoritmos que asignan camas hospitalarias, sensores urbanos que regulan semáforos: la revolución silenciosa de la automatización se infiltra en cada resquicio burocrático. En Francia, la Agencia Tributaria usa visión artificial para identificar piscinas no declaradas; en Estonia, un juez asistido por IA resuelve reclamaciones menores en seis minutos. La eficiencia es incuestionable y, en tiempos de presupuestos limitados, la tentación de acelerar resulta comprensible. La baja productividad en la administración pública tampoco ayuda a frenar esta revolución silenciosa.

Pero el paso de la simple asistencia técnica a la cogestión política es inevitable. Los mismos sistemas que hoy analizan datos acabarán sugiriendo políticas fiscales, reordenando listas de espera o recomendando dónde construir una escuela. En los Países Bajos, SyRI etiquetó a miles de familias como sospechosas de fraude; en el Reino Unido, el algoritmo que sustituyó a los exámenes en 2020 penalizó a estudiantes de entornos desfavorecidos. Cuando las decisiones adquieren consecuencias distributivas, el debate deja de ser técnico: la esencia de la democracia está en juego.

¿Usted sería capaz de debatir con la IA?

La presión para delegar aumentará, ya que la complejidad de los análisis generados por IA y su capacidad de razonamiento crecen exponencialmente más rápido que la capacitación y experiencia de nuestros representantes. Muchos concejales, diputados, ministros o parlamentarios hoy no podrían contraargumentar informes generados por IA en aquellos temas en los que deliberan. Y la psicología juega en contra: tendemos a asumir que una decisión propuesta por una máquina es más objetiva, y por tanto acertada que la de una persona, incluso cuando los resultados generan dudas; reconocer dudas o incluso ignorancia cuesta votos, aferrarse a la supuesta objetividad tecnológica los preserva. Así, la delegación deja de ser opción y se convierte en coartada: «Lo propuso la IA» se perfila como nueva fórmula de irresponsabilidad política. Llevamos años con una administración volcada en decisiones técnicas que marginan el debate y por ende, la decisión política.

Aquí irrumpe el factor ‘valores’. La mayoría de las inteligencias artificiales que nutren nuestros dispositivos se ha entrenado en Silicon Valley o Shenzhen. La primera respira individualismo mercantil; la segunda, control estatal férreo. La Unión Europea, entretanto, fundamenta su identidad en la dignidad humana, la solidaridad y el respeto a la libertad individual y al desarrollo del proyecto vital de cada ciudadano. Integrar una IA foránea sin someterla a una cuarentena ética equivale a importar otra antropología: otra concepción de la privacidad y la libertad, otro umbral de tolerancia al sufrimiento de los vulnerables, otra idea del éxito social. La tecnología no es neutral; arrastra el sedimento cultural de quien la programó.

¿Y si nos juzgara un juez extranjero que no conoce nuestras leyes?

Podríamos llamarlo colonización digital. No hace falta un ejército para influir en nuestras políticas, basta con que la nube extranjera se vuelva imprescindible. Cuando un modelo generativo redacta borradores de ley, incorpora estructuras de lenguaje y prioridades implícitas que reflejan sus sesgos de entrenamiento: un sesgo hacia el crecimiento a cualquier precio, un relativismo con la vigilancia masiva, una incomodidad ante la redistribución fiscal o permisividad al control o gestión desde el estado de todo ámbito privado. El pasaporte del código importa. ¿Aceptaríamos que un magistrado extranjero dictase sentencia sin conocer nuestro ordenamiento? Entonces, ¿por qué dejaríamos que un sistema entrenado con otros valores distribuya nuestras ayudas públicas?

La opacidad agrava el problema. La mayoría de los grandes modelos de lenguaje y redes neuronales utilizados funcionan como cajas negras. Ni siquiera se conoce con qué datos han sido entrenados las IAs, ni con qué criterios se han reforzado determinadas respuestas durante el proceso de aprendizaje. Tampoco es posible reconstruir el razonamiento exacto que ha seguido la IA para ofrecer una conclusión. El resultado es una falta estructural de transparencia y control sobre una tecnología que, sin embargo, toma decisiones que afectan derechos fundamentales. La rendición de cuentas—pilar fundamental de cualquier república—se evapora. Sin responsabilidad no hay confianza; sin confianza la democracia se deshilacha.

Bruselas cree tener la respuesta

Bruselas presume de respuesta: el futuro Reglamento de IA clasifica los sistemas por nivel de riesgo y prohíbe los usos más nocivos. Pero refleja nuestra paradoja: regulamos mejor que nadie mientras compramos la tecnología a otros. Regulamos para frenar en lugar de liderar una innovación basada en nuestros valores. Sin industria propia, la UE podría convertirse en un laboratorio de principios que otros ensamblan a su antojo.

La alternativa pasa por construir soberanía digital: modelos fundacionales multilingües entrenados con corpus europeos, nubes soberanas bajo jurisdicción continental, supercomputadores que dispensen capacidad sin peajes externos. Finlandia ensaya AuroraAI; Francia y Alemania impulsan consorcios para una IA generativa europea; Bélgica aloja supercomputadoras para EuroHPC. Pasos alentadores, pero todavía modestos frente a Washington o Pekín.

El impacto cotidiano hace urgente acelerar. Si la IA decide a qué paciente operar primero, o qué agricultor recibe una subvención, su sesgo puede definir la biografía de miles de europeos. Una IA que priorice determinados distritos porque tienen más datos disponibles, o que margine a otros por falta de registros, puede producir desigualdades con apariencia de decisión objetiva. Cuando la policía despliegue patrullas guiadas por modelos generativos, la presunción de inocencia dependerá de entrenamientos realizados en otro continente.

La ciudadanía debe exigir

Desde la ciudadanía, cinco garantías deberían ser irrenunciables: transparencia total en decisiones técnicas y políticas; auditorías externas obligatorias orientadas a identificar y neutralizar los sesgos, inevitables en todos los modelos, y que deben ser gestionados con responsabilidad; garantía de que las decisiones públicas se tomen priorizando el diálogo con la ciudadanía, por encima de cualquier recomendación automatizada; alfabetización digital para cargos electos; y debates deliberativos previos cuando una IA incida sobre derechos fundamentales. Ignorarlas erosionará irreversiblemente la soberanía democrática.

El gran ausente en este debate son los partidos políticos. El uso de la inteligencia artificial para reforzar el discurso de aquellos representantes que resultan más cómodos a las estructuras de poder interno puede desplazar las voces críticas y con mayor formación dentro de las propias organizaciones. Al mismo tiempo, recurrir a sistemas de IA para construir mensajes ideológicos orientados únicamente al interés partidista, y no al bien común, supone un riesgo añadido para la salud democrática. Frente a este escenario, sólo una apuesta decidida por la transparencia radical —en el trabajo, en los criterios y en la trazabilidad de la toma de decisiones— puede garantizar una verdadera conexión entre ciudadanía y política. Esa transparencia debe darse tanto de puertas adentro como hacia fuera de las organizaciones, y aplicarse tanto en las decisiones públicas como en los procesos internos de las estructuras políticas.

Qué puede hacer nuestro concejal

Volvamos a nuestro concejal. Todavía está a tiempo de detenerse, de exigir que los expedientes incluyan la opinión de los afectados, de contratar expertos independientes, de contrastar las recomendaciones automáticas con el juicio de profesionales cualificados y de convocar a los vecinos para deliberar. También está a tiempo de practicar un ejercicio de transparencia radical, explicando con claridad los criterios que le han llevado a tomar la decisión que hoy defiende.

La inteligencia artificial puede ser —y probablemente será— una gran aliada para una administración pública que aspire a ser más justa, eficiente y equitativa. Pero eso sólo será posible si conservamos el timón y anclamos nuestros valores comunes en el diseño, uso y supervisión de estas tecnologías. Europa nació para sustituir la fuerza por el diálogo, la imposición por la deliberación, y para construir lo público desde el respeto a los derechos y las personas. Ceder hoy la deliberación a inteligencias sin pasaporte sería traicionar esa promesa. Mientras la decisión siga siendo nuestra, no hay destino escrito: hay responsabilidad. Y debemos asumirla antes de que otro lo programe por nosotros.