
Un experimento liderado por la Escuela Politécnica Federal de Lausana ha demostrado que modelos de inteligencia artificial como GPT-4 son más persuasivos que los humanos en debates cuando pueden adaptar sus argumentos utilizando información personal del interlocutor. El estudio, publicado en Nature Human Behaviour, reveló que la IA convenció a sus oponentes en el 64% de los casos cuando tuvo acceso a datos como edad, género u orientación política, lo que plantea preocupaciones sobre su capacidad para manipular opiniones de forma sutil pero eficaz.

El investigador principal, Francesco Salvi, explicó que la personalización de los mensajes no es en sí negativa, pero advirtió sobre el uso malicioso de esta capacidad. Comparó el fenómeno con las estrategias de venta personalizadas y subrayó que el verdadero riesgo aparece cuando se cruzan los límites éticos, como en campañas políticas o desinformación. Salvi defiende la necesidad de establecer salvaguardas para evitar abusos en contextos sensibles.
El experimento incluyó a 900 personas en EE.UU. y examinó más de 50 temas de debate con distintos niveles de controversia. Cuando ni humanos ni IA tenían datos personales del oponente, los resultados fueron equilibrados. Sin embargo, al disponer de dicha información, la IA logró alterar opiniones con más eficacia, destacando su capacidad de «microtargeting». Este fenómeno, ya observado en entornos reales, revela cómo los modelos pueden rastrear huellas digitales y adaptar sus mensajes para influir sin que el usuario lo perciba.

El estudio concluye que la creciente capacidad persuasiva de los modelos de lenguaje plantea serios desafíos para la integridad del discurso público. Investigadores y expertos en ciberseguridad advierten sobre el potencial uso de estas tecnologías en campañas de odio, propaganda o manipulación electoral. Por ello, piden medidas como la transparencia sobre el uso de IA, auditorías independientes y restricciones específicas en sectores de alto riesgo, como la política o la salud.
Vía: El País, España
