Gustavo Hernández Díaz
Sumario
En el marco de los debates contemporáneos sobre tecnología y política, resulta necesario analizar la inteligencia artificial (IA) y su articulación con la democracia, inspirándonos en el pensamiento crítico de Daniel Innerarity, particularmente en su reciente obra Una teoría crítica de la inteligencia artificial (2025). Se asume su tesis principal: la democracia no peligra de desaparecer ante el avance tecnológico, sino que experimenta un condicionamiento estructural que reordena sus prácticas diarias y sus pilares epistemológicos.
La tecnología, es, actualmente, filosofía
encubierta; la cuestión es hacerla abiertamente filosófica.
(Philip Agre 1997, c.p. Daniel Innerarity)
— La evolución de la inteligencia artificial plantea una dicotomía entre el optimismo y la cautela. El verdadero reto de la innovación no consiste en reemplazar la capacidad de decisión del hombre, sino en aprender a gestionar la automatización mediante una delegación consciente que preserve, en todo momento, la supervisión y la deliberación humana.
Frente a las narrativas extremas –catastrofistas o utópicas– que saturan las discusiones sobre inteligencia artificial y democracia, Daniel Innerarity plantea una vía intermedia y refinada. Enfatiza que una democracia avanzada absorbe la automatización mediante reflexión crítica, sin sacrificar la agencia política de personas o grupos, que les permite intervenir con autonomía en el ámbito público, forjando opciones colectivas y reconfigurando tejidos sociales. Ironiza al notar que los más entusiasmados con la técnica suelen ser los que menos fe tienen en la democracia: tecnosolucionistas, que la erigen en remedio infalible; tecnoneutralistas, anclados en su supuesta imparcialidad al servicio del bien común; y tecnodeterministas, obsesionados con su lógica instrumental, desatendiendo su arraigo social, político e histórico, con trayectorias maleables en el tiempo. Tales visiones –tecnología como cura total, neutralidad inmaculada o dominio inexorable– revelan autoritarismos solapados, comunes a democracias y regímenes autoritarios.
— La delegación bien estructurada no erosiona el control, sino que lo convierte en una supervisión contextual e inteligente que preserva la autonomía de los sistemas, al tiempo que garantiza su coherencia con los fines globales. Este enfoque resulta esencial para avanzar hacia una tecnología centrada en el ser humano y una política democrática en sociedades complejas:
Defender el valor político de la delegación no significa estar a favor de la política autoritaria o de la tecnocracia, ni de que decidan los algoritmos, sino llamar la atención sobre la necesidad de que quien constituye la fuente última de autoridad en una democracia –el pueblo soberano– controle, también, su voluntad de control sobre el proceso político. Esta idea tendría su equivalente político en una capacitación popular para que el proceso político resulte comprensible a todos y que haya una rendición de cuentas, no que el pueblo esté siempre presente en cada decisión política o contemple en directo todos los actos de ese proceso
Más que un manual de instrucciones o una simple brújula moral, el ejercicio crítico se sitúa en la raíz del problema. Su verdadera misión no radica en determinar normas para la inteligencia artificial, sino en cuestionar quién y bajo qué intereses se define la legitimidad de nuestras interacciones tecnológicas:
— La tecnología no actúa sobre la democracia como un agente externo que la perturba, sino que la reconfigura desde su núcleo interno, condicionando sus prácticas cotidianas. Este proceso no es uniforme ni inevitable: se moldea recíprocamente por el contexto político donde se implementa.
El discurso predominante sobre lo digital ha girado drásticamente en poco tiempo. De un inicial entusiasmo utópico –con ideas como el ser digital (Negroponte), la inteligencia colectiva (Lévy), la gobernanza global (Tegmark), el transhumanismo (Kurzweil), la segunda era de las máquinas (Brynjolfsson y McAfee)–, hemos pasado a un panorama de desconfianza, marcado por conceptos como infocracia, psicopolítica, sociedad del cansancio (Han), capitalismo de vigilancia (Zuboff), modernidad líquida (Bauman). Para Daniel Innerarity, el núcleo del problema no está solo en la tecnología, sino en el marco conceptual para abordarla; por ello, rechaza visiones apocalípticas o mesiánicas y propone que la democracia no será superada ni eliminada por la IA, sino transformada mediante un condicionamiento estructural. [Continúa leyendo…].



