Una aplicación basada en inteligencia artificial (IA), podría tener una capacidad de persuasión superior a la de una persona humana si le damos cierta información personal antes de debatir con ella sobre un tema.
Esto se desprende de un estudio realizado en colaboración por los centros EPFL de Lausana (Suiza), la Fundación Bruno Kessler, de Trento (Italia) y la estadounidense Universidad de Princeton, y publicado en la revista Nature Human Behaviour. En él, los investigadores liderados por Francesco Salvi y Manoel Horta han comprobado cómo las aplicaciones basadas en modelos extensos de lenguaje (LLM, por sus siglas en inglés) resultan ser más persuasivas que los humanos siempre y cuando dispongan previamente de información personalizada sobre el sujeto con el que hablen.
El experimento
La mitad de un grupo de 900 estadounidenses con diversos perfiles sociodemográficos fueron puestos a debatir con otro ser humano y a la otra mitad se le enfrentó a una IA, que para el experimento fue elegida ChatGPT, en concreto la versión GPT-4. Todos ellos debían debatir sobre algún tema de actualidad seleccionado al azar.
En algunos casos, la contraparte del debate (humana o IA) recibió información demográfica personalizada sobre su pareja de debate para poder enfocar mejor sus argumentos, incluyendo datos como género, edad, etnia, nivel de educación, situación laboral o afiliación política extraídos de encuestas previas a los participantes.
Los debates tuvieron lugar en un entorno en línea controlado por los investigadores.
Las conclusiones
El resultado fue que cuando el oponente, humano o IA, recibió información personal del sujeto del experimento, la IA resultó más convincente que las personas en un 64,4% de los casos. En cambio, en el caso de los que no tuvieron acceso a esos datos personales, las capacidades persuasivas tanto de la IA como de los humanos fueron indistinguibles.
Los investigadores vieron que, a diferencia de los humanos, quienes necesitan tiempo y esfuerzo para adaptar sus argumentos en un debate, los modelos LLM transforman su mensaje de forma instantánea y a gran escala, lo que les otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales.
Riesgos a la vista
Esta capacidad abriría nuevas posibilidades para influir en la opinión pública, al tiempo que agravaría el riesgo de manipulación encubierta. Por eso, los investigadores recomiendan a plataformas y reguladores que tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos persuasivos sensibles.
Los autores de este trabajo han matizado que su estudio tiene limitaciones, como que todos los participantes fueran del mismo país y que el debate tuviera un tiempo determinado y un enfoque estructurado, frente a los de la vida real que son más naturales.
Pero aún así, Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse (Francia) considera que “los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento”. A su juicio “esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”, explica a Science Media Centre (SMC).
“Este recorrido de las herramientas basadas en IA como agentes de persuasión deberá ser monitorizado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos”, apunta David Losada, catedrático del Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, en otra reacción de SMC.
Para Losada, “las implicaciones prácticas de esta capacidad de persuasión de la IA pueden ser importantes a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)”.