La resiliencia democrática se está poniendo a prueba a medida que la desinformación impulsada por la IA evoluciona más allá de las campañas tradicionales de bots.
Investigadores y defensores de la libertad de expresión advierten que pronto se podrían desplegar enjambres coordinados de agentes de inteligencia artificial para manipular la opinión pública a una escala capaz de socavar los sistemas democráticos.
Según un consorcio de académicos de importantes universidades, los avances en la IA generativa y agente están permitiendo que un gran número de robots con apariencia humana se infiltren en comunidades en línea y simulen de forma autónoma el discurso político orgánico.
A diferencia de formas anteriores de desinformación automatizada, los enjambres de IA están diseñados para adaptarse a la dinámica social, aprender normas sociales e intercambiar información en pos de un objetivo común.
Al imitar el comportamiento humano y difundir gradualmente narrativas adaptadas, estos sistemas podrían generar consenso, reforzar las dudas sobre los procesos electorales y normalizar los resultados antidemocráticos sin desencadenar una detección inmediata.
Ya han surgido pruebas de operaciones de influencia tempranas en elecciones recientes en toda Asia, donde cuentas impulsadas por inteligencia artificial involucraron a los usuarios con grandes cantidades de información no verificable en lugar de propaganda abierta.
Los investigadores advierten que la sobrecarga de información, la neutralidad estratégica y la amplificación algorítmica pueden resultar más efectivas que las campañas de desinformación tradicionales.
Sin una acción colectiva, advierten, la manipulación habilitada por la IA corre el riesgo de superar las defensas regulatorias e institucionales existentes.
¿Le gustaría aprender más sobre IA, tecnología y diplomacia digital?? Si es así, ¡pregúntale a nuestro chatbot Diplo!

