Gustavo La Fontaine
SUMARIO
La rápida proliferación de la inteligencia artificial (IA) generativa ha transformado radicalmente el panorama de la participación democrática. Este trabajo examina la naturaleza paradójica de la IA en los procesos políticos: su capacidad para socavar instituciones mediante la manipulación sofisticada y, simultáneamente, su potencial para fortalecer la resiliencia democrática. A través de la Psicología de la Liberación de Ignacio Martín-Baró, la Teoría del Mundo Justo y la Ecología de los medios, se ofrece un marco integral para analizar estas dinámicas. El ensayo aborda casos contemporáneos, como la anulación de las elecciones presidenciales rumanas de 2024 y las granjas de bots, demostrando que el impacto de la IA depende de los marcos éticos e institucionales que guíen su despliegue.
Introducción
La irrupción de la inteligencia artificial generativa ha inaugurado una era de capacidad tecnológica que desafía los conceptos tradicionales de integridad informativa y discurso político. Con la adopción masiva de modelos de lenguaje, la velocidad de transformación tecnológica ha superado la capacidad de supervisión gubernamental. Esta revolución presenta una paradoja fundamental: los mismos sistemas capaces de potenciar el compromiso cívico pueden ser instrumentalizados para manipular la opinión pública y erosionar los cimientos democráticos.
Evidencia reciente sugiere que el contenido generado por IA influye en resultados electorales de manera tangible. El caso de las elecciones presidenciales de Rumanía en 2024, donde la interferencia digital precipitó una crisis constitucional, ejemplifica cómo la desinformación automatizada y los deepfakes crean una «atmósfera de irrealidad». Este fenómeno permite a actores políticos invocar el «dividendo del mentiroso», negando pruebas auténticas bajo la premisa de que podrían ser falsificaciones de IA (Chesney & Citron, 2018).
No obstante, la tecnología ofrece oportunidades para fortalecer la democracia. Sistemas de verificación automatizada y algoritmos de detección de patrones inauténticos prometen defender la integridad del discurso público. El desafío reside en desarrollar una gobernanza que mitigue las amenazas sin sofocar la innovación. Este artículo aborda dicha problemática desde tres lentes teóricos: la psicología política para entender la radicalización, los sesgos cognitivos para explicar la susceptibilidad a la desinformación, y la ecología de los medios para analizar el nuevo entorno informativo.
Según un informe de Recorded Future (2024), la manipulación política constituye una porción significativa de los deepfakes detectados globalmente. Estas fabricaciones no solo engañan, sino que erosionan la confianza en la evidencia audiovisual, históricamente considerada prueba de verdad.
[Continúa leyendo…]



