Por: Ramiro Sánchez Morales |
Hay un espejo incómodo en el que Bolivia necesita mirarse con urgencia. En su obra Ciudadanos reemplazados por algoritmos, el antropólogo Néstor García Canclini nos lanza una advertencia frontal y dolorosa: el espacio público contemporáneo ya no es patrimonio exclusivo de las instituciones políticas formales, de las asambleas territoriales o de los medios de comunicación tradicionales. Hoy, ese espacio vital está siendo administrado —y en gran medida secuestrado— por arquitecturas digitales opacas que capturan nuestros datos íntimos, ordenan nuestras preferencias y, sin que nos demos cuenta, orientan nuestro comportamiento cotidiano. El riesgo mayor al que nos enfrentamos no es estrictamente tecnológico, sino profundamente cívico: estamos permitiendo, con nuestra pasividad diaria, que el ciudadano —aquel sujeto portador de derechos, forjador del bien común y actor principal del Estado— sea degradado a la triste condición de "usuario", un simple peón digital que alimenta de forma gratuita a plataformas corporativas globales que no rinden ningún tipo de cuentas a nuestras leyes ni a nuestra soberanía democrática.
Para Bolivia, esta advertencia teórica tiene el peso de una crisis existencial práctica. Nuestra democracia no nació en servidores climatizados de Silicon Valley ni se consolidó midiendo métricas de retención o likes; nació en la calle, en el sindicato, en la mina, en la asamblea universitaria y en el histórico cabildo. Históricamente, nuestra deliberación plurinacional ha exigido cuerpo, presencia, territorio y el encuentro cara a cara entre visiones distintas. Pero hoy, cuando la conversación social migra masivamente de la plaza principal al scroll infinito y solitario de la pantalla del celular, el modo mismo en que construimos nuestra opinión pública sufre una mutación radical y peligrosa.
El veneno de la segmentación en un Estado Plurinacional
En las redes sociales, en rigor, no dialogamos; consumimos y reaccionamos. Las plataformas digitales están diseñadas para encerrarnos en "burbujas de eco", espacios herméticos donde recibimos dosis constantes de información hiper-segmentada que solo confirma nuestros propios prejuicios y miedos. Para un país diverso, plurinacional y atravesado por históricas tensiones regionales e identitarias como el nuestro, esta lógica algorítmica actúa como un veneno de efecto retardado. Exacerba discursos de hostilidad recíproca, fomenta un regionalismo agresivo y diluye velozmente cualquier posibilidad de entendimiento intercultural.
El poder real de decidir qué tipo de noticia consume un joven minero en El Alto o qué enfoque político recibe un empresario agroindustrial en Santa Cruz ya no reside en el Palacio Quemado ni en la Asamblea Legislativa Plurinacional, sino en códigos matemáticos opacos diseñados por gigantes corporativos como Google, Apple, Facebook y Amazon (GAFA). Canclini llama a este fenómeno la "desposesión de la soberanía". Y tiene toda la razón: hemos entregado, casi sin resistencia, las llaves de nuestro debate público a algoritmos que están entrenados exclusivamente para maximizar el engagement (la atención retenida) a través del mecanismo infalible del escándalo, la indignación y la polarización emocional.
Elecciones 2026: Cuando el algoritmo decide la narrativa
Esta dramática desposesión mostró su rostro más letal y documentado en nuestro reciente ciclo electoral subnacional de marzo y abril de 2026, donde los algoritmos pasaron de ser simples ordenadores de contenido a verdaderas armas de manipulación política. No hablamos de teorías abstractas; hablamos de ejemplos concretos que vulneraron el derecho de los bolivianos a un voto informado.
En Santa Cruz, durante la segunda vuelta para la Gobernación, los algoritmos de recomendación de Facebook, Telegram y WhatsApp viralizaron masivamente un audio falso, generado íntegramente con Inteligencia Artificial, que atribuía a uno de los candidatos frases racistas contra la población del occidente del país y lo vinculaba artificialmente al escándalo financiero del banco Fassil. El algoritmo, al detectar que el contenido generaba indignación e interacción rápida, lo posicionó artificialmente en los feeds de miles de usuarios cruceños, moldeando la percepción pública antes de que el desmentido pudiera alcanzarlos.
En La Paz, la maquinaria algorítmica operó de forma similar. Se distribuyó un video hiperrealista que mostraba una supuesta reunión secreta y un soborno económico para que un partido declinara su candidatura a la Gobernación. El contenido, fabricado con IA y amplificado por granjas de bots, engañó al algoritmo de las redes para simular ser una noticia auténtica en tendencia. Además, candidatos como René Yahuasi sufrieron ataques mediante la descontextualización algorítmica de videos antiguos para implicarlos falsamente en casos de agresión sexual, una táctica que aprovecha el sesgo de las plataformas que priorizan el contenido polémico sin verificar su temporalidad.
El Órgano Electoral Plurinacional reportó, solo entre febrero y marzo, más de un centenar de infracciones por propaganda irregular que incluían manipulación de encuestas gráficas y campañas anónimas de descrédito. Incluso el propio Tribunal Supremo Electoral fue víctima de la manipulación cuando redes coordinadas alteraron videos de actas de escrutinio tapando los códigos QR para hacer creer que un acta de 99 votos había sido computada como 990. Los algoritmos amplificaron esta mentira, alimentando la narrativa de fraude e ignorando deliberadamente la aclaración oficial de los jurados.
Cuando el debate político queda subordinado a las métricas de viralidad y los deepfakes se disfrazan de realidad, la verdad objetiva pierde terreno irreversiblemente. El ciudadano termina votando a ciegas, guiado por indignaciones artificialmente inducidas por una máquina.
La "reserva de humanidad" frente a la máquina
Ante un panorama tan desalentador, la solución no puede ser la tecnofobia irracional, el aislamiento o la prohibición ciega de la tecnología, sino la gobernanza democrática y soberana. En mis recientes trabajos de investigación jurídica, como Inteligencia artificial y abogacía en Bolivia y La inteligencia artificial en Bolivia, he defendido enfáticamente que en nuestro país la IA debe ser "constitucionalmente impulsada", pero al mismo tiempo debe estar "estrictamente condicionada" a nuestro marco de derechos.
No podemos, ni debemos, oponernos a la modernización tecnológica; sin embargo, esta supuesta eficiencia algorítmica no puede justificar jamás el atropello al debido proceso, a la igualdad plurinacional ni a lo que denomino en mi doctrina la "reserva de humanidad". Es decir, ninguna decisión que afecte los derechos fundamentales de un ciudadano boliviano —ya sea la emisión de un fallo judicial, el acceso a un crédito bancario, la postulación a un empleo o la validación de un conteo electoral— puede quedar librada exclusivamente a automatismos de caja negra sin que exista una revisión, explicación y responsabilidad humana directa.
Por ello, es de vital importancia observar y empujar el recorrido legislativo del Proyecto de Ley Nº 178/2024-2025, denominado "Promoción, Gestión y Uso de la Inteligencia Artificial". Aprobado de manera pionera por la Cámara de Senadores en octubre de 2025 y actualmente estancado en la Cámara de Diputados, este proyecto representa un intento histórico. Plantea la creación de la Autoridad de Regulación de la Inteligencia Artificial (ARIA), encarga a la AGETIC la formulación de una Estrategia Nacional y busca prohibir prácticas totalitarias, tales como la manipulación subliminal o la implementación de sistemas de puntuación ciudadana.
Sin embargo, siendo realistas desde el derecho constitucional, aprobar una ley aislada no es una panacea. Bolivia necesita construir urgentemente un ecosistema normativo amplio que incluya una ley sólida de protección de datos personales —que a la fecha es una de nuestras mayores debilidades— y protocolos electorales severos que obliguen a los partidos políticos y al Órgano Electoral a auditar de manera independiente los algoritmos utilizados en las campañas.
Del usuario obediente al ciudadano vigilante
Finalmente, el desafío de fondo trasciende con creces a los legisladores, jueces o ingenieros de sistemas; es un reto profundamente educativo y ético. La alfabetización digital crítica debe dejar de ser un tema de seminarios cerrados y convertirse en una política de Estado prioritaria. Necesitamos que desde las escuelas primarias hasta las universidades se enseñe a cuestionar de frente al algoritmo. El ciudadano de la nueva era debe entender claramente cómo funcionan las burbujas informativas y cómo detectar la desinformación fabricada.
A escasos días de haber cerrado un convulso proceso electoral subnacional en abril de 2026, Bolivia se encuentra ubicada en la encrucijada perfecta. Si nos resignamos a ser usuarios obedientes que firman términos y condiciones sin leer, nuestra democracia plurinacional se encogerá lentamente hasta desaparecer en la opacidad de un servidor corporativo. Pero si decidimos recuperar nuestra ciudadanía plena y rebelde —exigiendo reglas claras al Estado, demandando transparencia algorítmica y manteniendo vivo el irremplazable diálogo presencial— podemos someter a la tecnología y ponerla verdaderamente al servicio del bien común. La deliberación en la plaza pública, y no el aislamiento en el scroll individual, debe seguir latiendo como el corazón innegociable de nuestra soberanía.





%20(1)%20(1)%20(1)%20(3)%20(1)%20(1).png)
