Ir al contenido principal

 

Batalla por la Opinión Pública

De la Represión Física al Control Algorítmico

La relación entre la dominación política y el uso de las redes sociales revela una profunda transformación en el ejercicio del poder. Este fenómeno ya no se limita a las agencias estatales; se ha expandido hacia un ecosistema híbrido donde actores privados, geopolíticos y nacionales colaboran para moldear la opinión pública. La dominación, entendida como la capacidad de interferir arbitrariamente con la autonomía de los ciudadanos, se manifiesta ahora a través de una arquitectura digital compleja que opera en tres niveles interconectados: represivo, estratégico y estructural. En su nivel más visible, la dominación represiva utiliza la tecnología para amplificar métodos coercitivos tradicionales. Gobiernos de todo el mundo, tanto democráticos como autoritarios, realizan monitoreo sistemático de las redes sociales para identificar amenazas, rastrear movimientos sociales y vetar solicitantes de visado. En Estados Unidos, agencias como el Departamento de Seguridad Nacional (DHS) y el FBI utilizan activamente estas plataformas para tareas de investigación y seguridad, a menudo sin una evaluación rigurosa de su eficacia ni suficientes salvaguardas para proteger los derechos civiles, particularmente de comunidades históricamente vulnerables. Esta supervisión digital se convierte en una herramienta tangible de represión física y legal, sirviendo como evidencia para arrestos, restricciones de movimiento o incluso asesinatos, como lo demuestran casos en Myanmar y Jordania. Además, regímenes autoritarios implementan estrategias de censura masiva, como "fuegos cortina" digitales (apagones de internet), prohibiciones de aplicaciones de mensajería y filtrado de contenido para silenciar la disidencia y controlar el flujo de información.

El segundo nivel es el estratégico, caracterizado por la ingeniería deliberada de la opinión pública. Aquí, las redes sociales se han convertido en el principal campo de batalla para la dominación, donde campañas orquestadas por estados explotan la participación abierta de la red para manipular la discusión pública. Un estudio de la Universidad de Oxford encontró evidencia de organizaciones de manipulación social en 81 países en 2020, un aumento significativo desde 70 en 2019, indicando una proliferación global de estas tácticas. Estas operaciones, a menudo financiadas por millones de dólares, emplean una combinación de bots automatizados, cuentas humanas (ciber-trolls), influencers pagados y firmas de comunicación estratégica para crear el efecto de apoyo popular artificial, difundir desinformación y atacar a los oponentes. Una tendencia crítica es el paso de campañas puramente automatizadas ("inorgánicas") a operaciones "semi-orgánicas", que combinan cuentas humanas con software de IA para generar narrativas más creíbles y difíciles de detectar. En Filipinas, por ejemplo, "ejércitos de teclado" fueron pagados $10 al día para operar cuentas falsas a favor de Rodrigo Duterte durante su campaña presidencial. Este modelo profesionaliza la manipulación, ofreciendo servicios de "desinformación a la carta" que son cada vez más sofisticados y accesibles.

El tercer nivel, y quizás el más insidioso, es la dominación estructural y constitutiva, donde el poder reside no solo en las acciones de un actor específico, sino en la arquitectura misma de las plataformas digitales. Plataformas como Facebook, X (Twitter) y TikTok, aunque sean empresas privadas, ejercen un poder quasi-público sobre la participación política de los ciudadanos. Su capacidad para moderar contenido y, de manera aún más influyente, sus algoritmos de visibilidad, puede excluir a movimientos sociales o partidos políticos, afectando directamente la capacidad de los individuos para participar en la vida pública. Esta forma de dominación se produce porque, debido a los efectos de red y la concentración del mercado, los usuarios carecen de alternativas realistas, creando una dependencia estructural que hace que cualquier consentimiento sea normativamente insignificante. Los algoritmos, diseñados para maximizar el tiempo de permanencia y la interacción, favorecen inherentemente el contenido emocionalmente cargado, polarizador y sensacionalista. Esto tiene consecuencias sistémicas devastadoras: crea burbujas de filtro y cámaras de eco que limitan la exposición a puntos de vista opuestos, reforzando las creencias existentes y aumentando la polarización. Además, esta lógica económica acelera la propagación de la desinformación, ya que la investigación del MIT demostró que la información falsa se propaga hasta seis veces más rápido que la verdadera. Aunque cada micro-intervención individual parezca insignificante —una recomendación personalizada, una notificación—, su acumulación da lugar a un sistema de gobierno algorítmico ("algocracy") que moldea comportamientos y opiniones a gran escala, a menudo sin transparencia ni rendición de cuentas.

Bots, Influencers y la Era de la IA Generativa

La evolución de la dominación política en el espacio digital está intrínsecamente ligada al desarrollo y la adopción de tecnologías cada vez más sofisticadas. Las redes sociales han proporcionado un arsenal de herramientas que permiten a los actores políticos realizar operaciones de manipulación a una escala sin precedentes. En el extremo más antiguo y todavía prevalente de este arsenal se encuentran los bots y las cuentas falsas. Estudios han documentado el uso de estos artefactos digitales en numerosos países para inundar hashtags, suprimir el discurso opuesto y crear una ilusión de consenso. Por ejemplo, en México, se utilizaron bots para practicar el "envenenamiento de hashtags" y entorpecer la coordinación de protestas. En Venezuela, se llevaron a cabo ataques de clonación ("DoubleSwitch") para hacer pasar cuentas verificadas por propaganda gubernamental. Más allá de los bots puramente automáticos, existe un vasto ecosistema de ciber-trolls y "cyber troops", a menudo vinculados a agencias estatales o contratados por firmas de relaciones públicas, que operan cuentas humanas para sembrar discordia, acosar a críticos y difundir desinformación. En 2020, se eliminaron más de 317,000 cuentas y páginas asociadas con estos "cyber troops" de plataformas como Facebook y Twitter. Simultáneamente, los influencers y figuras políticas han emergido como actores cruciales en la configuración del discurso público. Figuras como Donald Trump utilizan plataformas como Truth Social para propagar narrativas engañosas directamente a sus seguidores, mientras que creadores de contenido como Joe Rogan aprovechan su podcast, uno de los más populares del mundo, para llegar a audiencias cruzadas con un aura de neutralidad aparente, desinformando a millones sin estar sujetos a las mismas obligaciones éticas que los periodistas tradicionales. Estos líderes políticos, a menudo careciendo de obligaciones de veracidad, pueden desestabilizar el debate público y polarizar a la población mediante el uso de tácticas como el miedo, la ira y el resentimiento, dejando de lado el razonamiento lógico.

La inteligencia artificial generativa (IAG) representa una nueva dimensión en este arsenal, actuando como un catalizador que ha democratizado y escalado drásticamente las capacidades de dominación política. Sus herramientas permiten a los malos actores producir a bajo costo y en masa texto, imágenes, audio y video convincentes, facilitando tácticas de manipulación antes prohibitivas. Por ejemplo, la IAG puede generar perfiles de usuario realistas para cuentas falsas, haciendo más difícil su detección por parte de los moderadores humanos o de los sistemas de IA existentes. También permite la creación de contenido de baja calidad, pero atractivo que puede inundar las plataformas, ahogando el discurso legítimo en una avalancha de información irrelevante o engañosa. El impacto de la IAG va más allá de la producción de contenido; también radica en su indistinguibilidad y su potencial persuasivo oculto. Investigaciones experimentales han demostrado que los mensajes generados por LLMs (Large Language Models) son prácticamente indistinguibles para los usuarios comunes de los escritos por humanos. Lo más preocupante es que estos mensajes pueden ser igual o incluso más persuasivos que los humanos, especialmente cuando son percibidos como más lógicos, objetivos y menos emocionales. Esto abre la puerta a campañas de persuasión a gran escala que pueden alterar las posturas políticas de los ciudadanos sin que ellos sean conscientes de la manipulación. La percepción general de que la IAG será utilizada para desinformar es alta, con un 83.4% de los adultos estadounidenses expresando algún nivel de preocupación al respecto.

Esta nueva realidad tecnológica se ha manifestado ampliamente en las campañas electorales de 2024. Un informe de Graphika reveló que el 80% de los 50 países que celebraron elecciones competitivas en ese año experimentaron incidentes relacionados con la IAG. La mayoría de estos incidentes (90%) se centraron en la creación de contenido manipulador, desde llamadas robocall sintetizadas que imitaban la voz de candidatos hasta deepfakes y parodias de rivales políticos. En India, los modelos de lenguaje grandes (LLMs) se utilizaron para traducir mensajes de campaña a múltiples idiomas locales, reduciendo costos y mejorando el alcance electoral. En México, las facciones políticas primarias utilizaban deepfakes para atacar a sus contrincantes, mientras que, en Alemania y Francia, partidos políticos crearon avatares de IA para generar apoyo falso en línea. La siguiente tabla resume algunos de los usos documentados de la IAG en las elecciones de 2024:

País

Usos documentados de la IAG

Estados Unidos

Llamada robocall de IA imitando la voz de Joe Biden para desincentivar el voto.

India

Traducción multilingüe de mensajes de campaña; uso de videos AI para apelaciones personales a votantes.

México

Creación de deepfakes y contenido de audio manipulado dirigido contra candidatos principales.

Europa (Alemania, Francia)

Creación de avatares de IA y personas virtuales para generar apoyo falso y comentarios pro-partido.

Indonesia

Preocupación por el uso de deepfakes y videos manipulados por IA, con precios estimados de $300-$20,000 por minuto.

 

Estos ejemplos demuestran que la IAG ya no es una tecnología futurista, sino una herramienta de dominación política presente y activa, que socava la noción fundamental de la verdad y profundiza el clima de desconfianza sistémica que amenaza a las democracias.

Polarización, Desinformación y la Erosión de la Confianza Democrática

El uso extensivo de redes sociales para la dominación política no es un problema aislado de tácticas de manipulación; tiene profundas consecuencias sistémicas que socavan la cohesión social y la salud democrática. El impacto más documentado y debatido es la exacerbación de la polarización política. Si bien existe una corriente académica que cuestiona si las redes sociales causan la polarización, un consenso abrumador sugiere que intensifican y aceleran dinámicas preexistentes. La arquitectura algorítmica de las plataformas está diseñada para maximizar el engagement, lo que lleva a la priorización de contenido emocionalmente cargado, polémico y sensacionalista. Este mecanismo contribuye directamente a la formación de burbujas de filtro y cámaras de eco, donde los usuarios son expuestos predominantemente a puntos de vista que refuerzan sus creencias existentes, limitando la exposición a perspectivas diversas y aumentando la radicalización. La investigación del Instituto Tecnológico de Massachusetts (MIT) cuantificó este efecto, encontrando que la desinformación se propaga hasta seis veces más rápido que la información factual en plataformas como X (anteriormente Twitter). Esta dinámica no solo divide a la sociedad, sino que también fomenta un tipo de polarización más destructiva: la polarización afectiva, que es el odio o desdén hacia los miembros del grupo político opuesto. Esta forma de división es particularmente perjudicial para la democracia, ya que erosionan la disposición a comprometerse, dialogar y reconocer la legitimidad de los adversarios políticos.

Un aspecto paradójico de esta era digital es cómo la conectividad, lejos de fomentar la comprensión mutua, parece alimentar la división. Datos empíricos muestran que la conectividad social, medida como el número promedio de amistades cercanas, ha aumentado consistentemente en varios países desde 2009, coincidiendo con el auge de Facebook . Sin embargo, la polarización política en los Estados Unidos también siguió una trayectoria similar, saltando significativamente después de 2010 . Un modelo computacional basado en redes sociales predijo que la mayor conectividad, mediada por algoritmos que promueven la homofilia, podría provocar una transición abrupta a un estado de alta polarización, similar a una transición de fase en la física. Esto sugiere que la facilidad para conectar no garantiza la construcción de puentes, sino que puede reforzar las divisiones existentes si los algoritmos están diseñados para optimizar la interacción sobre la diversidad. La consecuencia de esta polarización es una erosión sistémica de la confianza en las instituciones democráticas. Campañas de desinformación sostenidas, tienen como objetivo explícito debilitar la confianza en los procesos electorales, las noticias legítimas y la propia noción de hechos compartidos. Esta estrategia de "verdad decay" o "erosión de la verdad" socava el fundamento de la deliberación democrática, que depende de un consenso compartido sobre la realidad.

Finalmente, este ecosistema de dominación digital genera un ciclo vicioso donde la desinformación y la polarización debilitan aún más las instituciones que deberían regularlo. Las plataformas tecnológicas, cuyo modelo de negocio se basa en la atención, a menudo resisten cambios algorítmicos que podrían reducir la polarización, ya que esto podría disminuir el engagement y, por ende, los ingresos publicitarios. Internamente, Facebook ha admitido que sus algoritmos promueven la división, pero ha optado por no implementar cambios permanentes debido a sus implicaciones comerciales. Externamente, la regulación ha sido lenta y a menudo ineficaz. Leyes como la alemana NetzDG, diseñada para combatir la desinformación, han sido criticadas por potencialmente conducir a una sobrecensura y establecer un precedente peligroso para otros regímenes. Las empresas de medios se ven desplazadas por creadores de contenido que a menudo carecen de marcos éticos de verificación, y las plataformas luchan por moderar contenido a una escala que supera sus recursos, como se evidenció en las pruebas de Global Witness que mostraron que Meta, YouTube y TikTok aprobaron anuncios de desinformación claros y explícitos. La combinación de estas fuerzas crea un entorno donde la dominación política no es un evento único, sino una condición continua, donde la voluntad popular es menos un producto de la deliberación informada y más una variable manipulada en un mercado de atención voraz y poco regulado.

El Impacto Variable de las Redes Sociales Según el Contexto.

El impacto de las redes sociales y las tecnologías digitales en la dominación política no es uniforme a nivel mundial; sus efectos dependen crucialmente del contexto del régimen político y la capacidad estatal. Un marco analítico propone que las plataformas tecnológicas pueden tener cuatro efectos distintos, dependiendo de la interacción entre el tipo de régimen (democrático o autoritario) y su grado de fortaleza (fuerte o débil). En regímenes democráticos fuertes, las redes sociales tienden a ejercer un "efecto debilitante". En estos contextos, la apertura de la comunicación y la libertad de expresión son principios fundamentales, pero también son explotadas por actores internos y externos para erosionar la confianza en las instituciones democráticas. El referéndum del fue influenciado por campañas de desinformación que aprovecharon las tensiones económicas y culturales. En estos sistemas, las plataformas actúan como amplificadores de la polarización y la desinformación, erosionando gradualmente la base de consenso necesario para una democracia funcional, un fenómeno descrito como "truth decay" o "erosión de la verdad".

En regímenes fuertes, el efecto de las redes sociales es el "intensificador". Lejos de ser una amenaza, estas plataformas son adoptadas y adaptadas como herramientas de vigilancia y represión para consolidar el poder del estado. China utiliza su "Gran Cortafuegos" para bloquear acceso a información no deseada y leyes que obligan a plataformas como WeChat a censurar contenido, creando un ecosistema digital cerrado y controlado. El gobierno también desarrolla sistemas avanzados como el "Police Cloud", que integra datos de redes sociales, telecomunicaciones y biometría para monitorear a los ciudadanos y predecir la disidencia. En estos contextos, las plataformas no debilitan al estado, sino que le proporcionan los medios para una supervisión y control más eficiente, reforzando la dominación autoritaria. La capacidad del estado para intervenir y regular estas plataformas, junto con la falta de oposición política viable, asegura que la tecnología se utilice para servir a los intereses del régimen en lugar de desafiarlos.

En regímenes débiles, tanto democráticos como autoritarios, las redes sociales pueden tener un "efecto radicalizador". En democracias débiles, como Brasil, la plataforma WhatsApp fue instrumental en el ascenso de Jair Bolsonaro en 2018. Se utilizó para difundir masivamente noticias falsas, atacar a los oponentes y explotar el miedo a la delincuencia y la corrupción, contribuyendo a una rápida caída en la satisfacción con la democracia. En regímenes autoritarios débiles, donde el control estatal es más frágil, las redes sociales pueden tener un "efecto destabilizador". La Revolución Egipcia de 2011 es un ejemplo paradigmático, donde plataformas como Facebook y Twitter fueron cruciales para organizar protestas, compartir información en tiempo real y ganar apoyo internacional, lo que finalmente condujo al derrocamiento del presidente Hosni Mubarak. En este escenario, la tecnología funciona como una herramienta de liberación para los opositores, permitiendo la coordinación y la organización de movimientos sociales que de otro modo serían imposibles de mantener. Finalmente, en regímenes autoritarios fuertes, las plataformas pueden tener un "efecto intensificador", sirviendo como herramientas de vigilancia y represión. La siguiente tabla resume estos efectos diferenciados:

Tipo de democracia

Efecto

Resultados

Democracia Fuerte

Debilitante

Amplifica la polarización, fomenta la desinformación y erosiona la confianza en las instituciones.

Autoritarismo Fuerte

Intensificador

Se adopta como herramienta de vigilancia, censura y control social para reforzar el poder del estado.

Democracia Débil

Radicalizador

Facilita el ascenso de líderes populistas a través de la desinformación y la polarización.

Autoritarismo Débil

Destabilizador

Permite la coordinación de opositores y la movilización contra el gobierno.

 

Este marco subraya que no hay una respuesta única a los problemas planteados por las redes sociales. Las soluciones deben ser contextualizadas y adaptadas a las características específicas del régimen político y la sociedad en cuestión, reconociendo que la misma tecnología puede ser una herramienta de opresión o de liberación, dependiendo del poder y la intención de quienes la controlan.

Propuesta Argumentativa para un Documento Político de Difusión

En resumen, el análisis de la intersección entre dominación política y el uso de las redes sociales revela una transformación fundamental en el ejercicio del poder. La dominación contemporánea ya no es un monopolio exclusivo del Estado, sino un fenómeno híbrido que se ha extendido a un campo de batalla digital compartido por actores privados, geopolíticos y políticos nacionales. Para un documento de difusión político, es crucial articular una propuesta argumentativa clara y accionable que resuene con un público político y ciudadano. El objetivo principal de dicho documento sería alertar sobre la emergencia de una "dominación digital", donde la voluntad popular es menos un producto de la deliberación informada y más una variable susceptible de ser moldeada, manipulada y controlada a través de una sofisticada maquinaria tecnológica.

El argumento central debe pivotar en la idea de que la raíz del problema no reside únicamente en la maldad de actores individuales, sino en la arquitectura económica y algorítmica de las plataformas tecnológicas. El modelo de negocio basado en la "atención económica" de las redes sociales, que prioriza el engagement sobre la veracidad, ha creado un entorno perfecto para la manipulación sistemática. Por lo tanto, cualquier solución duradera debe abordar esta causa raíz. La propuesta debería enfocarse en tres áreas clave de acción. Primero, la urgencia de la regulación algorítmica. Se debe abogar por legislación que exija transparencia y auditorías independientes de los algoritmos de recomendación y clasificación de contenido. Esto permitiría mitigar sus sesgos inherentes hacia la polarización y la desinformación, y restaurar cierto grado de control público sobre el discurso digital. Segundo, la necesidad de una gobernanza específica de la IA. Ante el auge de la inteligencia artificial generativa como arma de dominación, es imperativo impulsar regulaciones que puedan incluir la obligación de etiquetar contenido generado por IA, establecer controles robustos para evitar la manipulación y regular el acceso a los datos de votantes para entrenar modelos de IA, protegiendo así la integridad de los procesos electorales. Tercero, el fortalecimiento de la defensa civil. Es fundamental invertir en educación mediática y alfabetización digital para empoderar a los ciudadanos para que puedan identificar y resistir la manipulación. Esto incluye apoyar a organizaciones de verificación de hechos y promover medios de comunicación alternativos que ofrezcan perspectivas diversas, construyendo un contrafuego informativo capaz de contrarrestar la desinformación a gran escala.

En conclusión, la lucha por la soberanía nacional y la integridad democrática se libra ahora en el terreno digital. La soberanía de un país ya no puede medirse solo por su territorio o su poder militar, sino también por su capacidad para proteger su espacio público digital de intrusiones extranjeras y manipulaciones internas. La integridad de la democracia depende de la capacidad de los ciudadanos para deliberar sobre una base de hechos compartidos. Sin una intervención decisiva para reformar el modelo económico de las plataformas y regular el uso de tecnologías disruptivas como la IA, corremos el riesgo de ver consolidarse una era de dominación digital, donde la voluntad popular es menos un producto de la deliberación y más una variable manipulada en un mercado de atención voraz. Reconquistar el espacio público digital es, por tanto, la tarea más urgente para defender nuestra soberanía y nuestros valores democráticos en el siglo XXI.

Comentarios

Entradas más populares de este blog

  La Violencia Estatal y la Resistencia Literaria en la América Latina Contemporánea. Explorando la Geografía Metropolitana de la Violencia y la Resistencia Íntima La obra del escritor chileno José Baroja (nacido Ramón Mauricio González Gutiérrez en 1983) representa un punto de inflexión crucial en la representación literaria de la violencia estatal en América Latina contemporánea. A diferencia de tradiciones precedentes que a menudo centraban la violencia en eventos históricos definidos como dictaduras o conflictos armados, Baroja dirige su lente crítico hacia las formas más sutiles, cotidianas y estructurales de opresión que perviven en las grandes urbes modernas. Su proyecto literario se define como una exploración de lo humano y lo insólito desde lo cotidiano y lo marginal, buscando revelar las heridas ocultas por debajo de la superficie de la vida urbana. La violencia estatal, para Baroja, no es solo un acto de represión visible, sino una presencia constante en la precar...
  Fundamentos del Marxismo Ortodoxo   Introducción: El Retorno a lo Esencial   En un momento histórico marcado por la fragmentación ideológica, las crisis sistémicas del capitalismo globalizado y la persistente dominación imperialista en América Latina, se hace urgente recuperar no dogmas, sino “el método revolucionario del marxismo ortodoxo”. Frente a la banalización del pensamiento crítico y la hegemonía de reformismos tecnocráticos que despojan al socialismo de su dimensión transformadora, esta propuesta recupera los fundamentos del marxismo tal como lo pensó Lukács: “no como un conjunto de verdades eternas, sino como el método dialéctico capaz de captar la totalidad del proceso histórico y orientar la praxis revolucionaria del proletariado”. El objetivo no es reconstruir un museo teórico, sino armar una brújula para la acción política continental, capaz de desenmascarar las apariencias fetichizadas del capitalismo lateño y poner en movimiento las fuerzas soc...
  CONTEXTO DE UN MES DE PARO NACIONAL   A continuación, se presenta un análisis de hechos, argumentos y resultados basado en una situación de contexto real y complejo, detallando los componentes: I. Hechos Clave y Situación de Contexto Los hechos documentados se centran en las acciones del régimen en Ecuador en el contexto de un mes de paro nacional y la represión subsiguiente contra la movilización popular e indígena. ·          Violencia y Víctimas: La represión durante el paro nacional ha dejado, hasta ahora, un saldo de tres comuneros asesinados , más de 200 heridos (muchos de gravedad) y más de un centenar de detenidos solo en las comunidades participantes.   ·          Militarización Extrema: Se ha denunciado la militarización de los territorios y el uso de un estado de excepción permanente y toques de queda para generar miedo e inmovilidad. Las Fuerzas Armadas y la Po...