Batalla por la Opinión
Pública
De la Represión Física al Control Algorítmico
La relación entre la dominación política y el uso
de las redes sociales revela una profunda transformación en el ejercicio del
poder. Este fenómeno ya no se limita a las agencias estatales; se ha expandido
hacia un ecosistema híbrido donde actores privados, geopolíticos y nacionales
colaboran para moldear la opinión pública. La dominación, entendida como la
capacidad de interferir arbitrariamente con la autonomía de los ciudadanos, se
manifiesta ahora a través de una arquitectura digital compleja que opera en
tres niveles interconectados: represivo, estratégico y estructural. En su nivel
más visible, la dominación represiva utiliza la tecnología para amplificar
métodos coercitivos tradicionales. Gobiernos de todo el mundo, tanto
democráticos como autoritarios, realizan monitoreo sistemático de las redes
sociales para identificar amenazas, rastrear movimientos sociales y vetar
solicitantes de visado. En Estados Unidos, agencias como el Departamento de
Seguridad Nacional (DHS) y el FBI utilizan activamente estas plataformas para
tareas de investigación y seguridad, a menudo sin una evaluación rigurosa de su
eficacia ni suficientes salvaguardas para proteger los derechos civiles,
particularmente de comunidades históricamente vulnerables. Esta supervisión
digital se convierte en una herramienta tangible de represión física y legal,
sirviendo como evidencia para arrestos, restricciones de movimiento o incluso
asesinatos, como lo demuestran casos en Myanmar y Jordania. Además, regímenes
autoritarios implementan estrategias de censura masiva, como "fuegos
cortina" digitales (apagones de internet), prohibiciones de aplicaciones
de mensajería y filtrado de contenido para silenciar la disidencia y controlar
el flujo de información.
El segundo nivel es el estratégico, caracterizado
por la ingeniería deliberada de la opinión pública. Aquí, las redes sociales se
han convertido en el principal campo de batalla para la dominación, donde
campañas orquestadas por estados explotan la participación abierta de la red
para manipular la discusión pública. Un estudio de la Universidad de Oxford
encontró evidencia de organizaciones de manipulación social en 81 países en
2020, un aumento significativo desde 70 en 2019, indicando una proliferación
global de estas tácticas. Estas operaciones, a menudo financiadas por millones
de dólares, emplean una combinación de bots automatizados, cuentas humanas
(ciber-trolls), influencers pagados y firmas de comunicación estratégica para
crear el efecto de apoyo popular artificial, difundir desinformación y atacar a
los oponentes. Una tendencia crítica es el paso de campañas puramente
automatizadas ("inorgánicas") a operaciones
"semi-orgánicas", que combinan cuentas humanas con software de IA
para generar narrativas más creíbles y difíciles de detectar. En Filipinas, por
ejemplo, "ejércitos de teclado" fueron pagados $10 al día para operar
cuentas falsas a favor de Rodrigo Duterte durante su campaña presidencial. Este
modelo profesionaliza la manipulación, ofreciendo servicios de
"desinformación a la carta" que son cada vez más sofisticados y
accesibles.
El tercer nivel, y quizás el más insidioso, es la
dominación estructural y constitutiva, donde el poder reside no solo en las
acciones de un actor específico, sino en la arquitectura misma de las
plataformas digitales. Plataformas como Facebook, X (Twitter) y TikTok, aunque
sean empresas privadas, ejercen un poder quasi-público sobre la participación
política de los ciudadanos. Su capacidad para moderar contenido y, de manera
aún más influyente, sus algoritmos de visibilidad, puede excluir a movimientos
sociales o partidos políticos, afectando directamente la capacidad de los
individuos para participar en la vida pública. Esta forma de dominación se
produce porque, debido a los efectos de red y la concentración del mercado, los
usuarios carecen de alternativas realistas, creando una dependencia estructural
que hace que cualquier consentimiento sea normativamente insignificante. Los
algoritmos, diseñados para maximizar el tiempo de permanencia y la interacción,
favorecen inherentemente el contenido emocionalmente cargado, polarizador y
sensacionalista. Esto tiene consecuencias sistémicas devastadoras: crea
burbujas de filtro y cámaras de eco que limitan la exposición a puntos de vista
opuestos, reforzando las creencias existentes y aumentando la polarización.
Además, esta lógica económica acelera la propagación de la desinformación, ya
que la investigación del MIT demostró que la información falsa se propaga hasta
seis veces más rápido que la verdadera. Aunque cada micro-intervención individual
parezca insignificante —una recomendación personalizada, una notificación—, su
acumulación da lugar a un sistema de gobierno algorítmico
("algocracy") que moldea comportamientos y opiniones a gran escala, a
menudo sin transparencia ni rendición de cuentas.
Bots, Influencers y la Era de la IA Generativa
La evolución de la dominación política en el
espacio digital está intrínsecamente ligada al desarrollo y la adopción de
tecnologías cada vez más sofisticadas. Las redes sociales han proporcionado un
arsenal de herramientas que permiten a los actores políticos realizar
operaciones de manipulación a una escala sin precedentes. En el extremo más
antiguo y todavía prevalente de este arsenal se encuentran los bots y las
cuentas falsas. Estudios han documentado el uso de estos artefactos digitales
en numerosos países para inundar hashtags, suprimir el discurso opuesto y crear
una ilusión de consenso. Por ejemplo, en México, se utilizaron bots para
practicar el "envenenamiento de hashtags" y entorpecer la
coordinación de protestas. En Venezuela, se llevaron a cabo ataques de
clonación ("DoubleSwitch") para hacer pasar cuentas verificadas por
propaganda gubernamental. Más allá de los bots puramente automáticos, existe un
vasto ecosistema de ciber-trolls y "cyber troops", a menudo
vinculados a agencias estatales o contratados por firmas de relaciones
públicas, que operan cuentas humanas para sembrar discordia, acosar a críticos
y difundir desinformación. En 2020, se eliminaron más de 317,000 cuentas y
páginas asociadas con estos "cyber troops" de plataformas como
Facebook y Twitter. Simultáneamente, los influencers y figuras políticas han
emergido como actores cruciales en la configuración del discurso público.
Figuras como Donald Trump utilizan plataformas como Truth Social para propagar
narrativas engañosas directamente a sus seguidores, mientras que creadores de
contenido como Joe Rogan aprovechan su podcast, uno de los más populares del
mundo, para llegar a audiencias cruzadas con un aura de neutralidad aparente,
desinformando a millones sin estar sujetos a las mismas obligaciones éticas que
los periodistas tradicionales. Estos líderes políticos, a menudo careciendo de
obligaciones de veracidad, pueden desestabilizar el debate público y polarizar
a la población mediante el uso de tácticas como el miedo, la ira y el
resentimiento, dejando de lado el razonamiento lógico.
La inteligencia artificial generativa (IAG)
representa una nueva dimensión en este arsenal, actuando como un catalizador
que ha democratizado y escalado drásticamente las capacidades de dominación
política. Sus herramientas permiten a los malos actores producir a bajo costo y
en masa texto, imágenes, audio y video convincentes, facilitando tácticas de
manipulación antes prohibitivas. Por ejemplo, la IAG puede generar perfiles de
usuario realistas para cuentas falsas, haciendo más difícil su detección por
parte de los moderadores humanos o de los sistemas de IA existentes. También
permite la creación de contenido de baja calidad, pero atractivo que puede
inundar las plataformas, ahogando el discurso legítimo en una avalancha de
información irrelevante o engañosa. El impacto de la IAG va más allá de la
producción de contenido; también radica en su indistinguibilidad y su potencial
persuasivo oculto. Investigaciones experimentales han demostrado que los
mensajes generados por LLMs (Large Language Models) son prácticamente
indistinguibles para los usuarios comunes de los escritos por humanos. Lo más
preocupante es que estos mensajes pueden ser igual o incluso más persuasivos
que los humanos, especialmente cuando son percibidos como más lógicos,
objetivos y menos emocionales. Esto abre la puerta a campañas de persuasión a
gran escala que pueden alterar las posturas políticas de los ciudadanos sin que
ellos sean conscientes de la manipulación. La percepción general de que la IAG
será utilizada para desinformar es alta, con un 83.4% de los adultos
estadounidenses expresando algún nivel de preocupación al respecto.
Esta nueva realidad tecnológica se ha manifestado
ampliamente en las campañas electorales de 2024. Un informe de Graphika reveló
que el 80% de los 50 países que celebraron elecciones competitivas en ese año
experimentaron incidentes relacionados con la IAG. La mayoría de estos
incidentes (90%) se centraron en la creación de contenido manipulador, desde
llamadas robocall sintetizadas que imitaban la voz de candidatos hasta
deepfakes y parodias de rivales políticos. En India, los modelos de lenguaje
grandes (LLMs) se utilizaron para traducir mensajes de campaña a múltiples
idiomas locales, reduciendo costos y mejorando el alcance electoral. En México,
las facciones políticas primarias utilizaban deepfakes para atacar a sus
contrincantes, mientras que, en Alemania y Francia, partidos políticos crearon
avatares de IA para generar apoyo falso en línea. La siguiente tabla resume
algunos de los usos documentados de la IAG en las
elecciones de 2024:
|
País |
Usos documentados de la IAG |
|
Estados Unidos |
Llamada robocall de IA imitando la voz de Joe
Biden para desincentivar el voto. |
|
India |
Traducción multilingüe de mensajes de campaña;
uso de videos AI para apelaciones personales a votantes. |
|
México |
Creación de deepfakes y contenido de audio
manipulado dirigido contra candidatos principales. |
|
Europa (Alemania, Francia) |
Creación de avatares de IA y personas virtuales
para generar apoyo falso y comentarios pro-partido. |
|
Indonesia |
Preocupación por el uso de deepfakes y videos
manipulados por IA, con precios estimados de $300-$20,000 por minuto. |
Estos ejemplos demuestran que la IAG ya no es una
tecnología futurista, sino una herramienta de dominación política presente y
activa, que socava la noción fundamental de la verdad y profundiza el clima de
desconfianza sistémica que amenaza a las democracias.
Polarización, Desinformación y la Erosión de la
Confianza Democrática
El uso extensivo de redes sociales para la
dominación política no es un problema aislado de tácticas de manipulación;
tiene profundas consecuencias sistémicas que socavan la cohesión social y la
salud democrática. El impacto más documentado y debatido es la exacerbación de
la polarización política. Si bien existe una corriente académica que cuestiona
si las redes sociales causan la polarización, un consenso
abrumador sugiere que intensifican y aceleran dinámicas preexistentes. La
arquitectura algorítmica de las plataformas está diseñada para maximizar el
engagement, lo que lleva a la priorización de contenido emocionalmente cargado,
polémico y sensacionalista. Este mecanismo contribuye directamente a la
formación de burbujas de filtro y cámaras de eco, donde los usuarios son
expuestos predominantemente a puntos de vista que refuerzan sus creencias
existentes, limitando la exposición a perspectivas diversas y aumentando la
radicalización. La investigación del Instituto Tecnológico de Massachusetts
(MIT) cuantificó este efecto, encontrando que la desinformación se propaga
hasta seis veces más rápido que la información factual en plataformas como X
(anteriormente Twitter). Esta dinámica no solo divide a la sociedad, sino que
también fomenta un tipo de polarización más destructiva: la polarización
afectiva, que es el odio o desdén hacia los miembros del grupo político opuesto.
Esta forma de división es particularmente perjudicial para la democracia, ya
que erosionan la disposición a comprometerse, dialogar y reconocer la
legitimidad de los adversarios políticos.
Un aspecto paradójico de esta era digital es cómo
la conectividad, lejos de fomentar la comprensión mutua, parece alimentar la
división. Datos empíricos muestran que la conectividad social, medida como el
número promedio de amistades cercanas, ha aumentado consistentemente en varios
países desde 2009, coincidiendo con el auge de Facebook . Sin embargo, la
polarización política en los Estados Unidos también siguió una trayectoria
similar, saltando significativamente después de 2010 . Un modelo computacional
basado en redes sociales predijo que la mayor conectividad, mediada por
algoritmos que promueven la homofilia, podría provocar una transición abrupta a
un estado de alta polarización, similar a una transición de fase en la física.
Esto sugiere que la facilidad para conectar no garantiza la construcción de
puentes, sino que puede reforzar las divisiones existentes si los algoritmos
están diseñados para optimizar la interacción sobre la diversidad. La consecuencia
de esta polarización es una erosión sistémica de la confianza en las
instituciones democráticas. Campañas de desinformación sostenidas, tienen como
objetivo explícito debilitar la confianza en los procesos electorales, las
noticias legítimas y la propia noción de hechos compartidos. Esta estrategia de
"verdad decay" o "erosión de la verdad" socava el
fundamento de la deliberación democrática, que depende de un consenso
compartido sobre la realidad.
Finalmente, este ecosistema de dominación digital
genera un ciclo vicioso donde la desinformación y la polarización debilitan aún
más las instituciones que deberían regularlo. Las plataformas tecnológicas,
cuyo modelo de negocio se basa en la atención, a menudo resisten cambios
algorítmicos que podrían reducir la polarización, ya que esto podría disminuir
el engagement y, por ende, los ingresos publicitarios. Internamente, Facebook
ha admitido que sus algoritmos promueven la división, pero ha optado por no implementar
cambios permanentes debido a sus implicaciones comerciales. Externamente, la
regulación ha sido lenta y a menudo ineficaz. Leyes como la alemana NetzDG,
diseñada para combatir la desinformación, han sido criticadas por
potencialmente conducir a una sobrecensura y establecer un precedente peligroso
para otros regímenes. Las empresas de medios se ven desplazadas por creadores
de contenido que a menudo carecen de marcos éticos de verificación, y las
plataformas luchan por moderar contenido a una escala que supera sus recursos,
como se evidenció en las pruebas de Global Witness que mostraron que Meta,
YouTube y TikTok aprobaron anuncios de desinformación claros y explícitos. La
combinación de estas fuerzas crea un entorno donde la dominación política no es
un evento único, sino una condición continua, donde la voluntad popular es
menos un producto de la deliberación informada y más una variable manipulada en
un mercado de atención voraz y poco regulado.
El Impacto Variable de las Redes Sociales Según el
Contexto.
El impacto de las redes sociales y las tecnologías
digitales en la dominación política no es uniforme a nivel mundial; sus efectos
dependen crucialmente del contexto del régimen político y la capacidad estatal.
Un marco analítico propone que las plataformas tecnológicas pueden tener cuatro
efectos distintos, dependiendo de la interacción entre el tipo de régimen
(democrático o autoritario) y su grado de fortaleza (fuerte o débil). En
regímenes democráticos fuertes, las redes sociales tienden a ejercer un
"efecto debilitante". En estos contextos, la apertura de la
comunicación y la libertad de expresión son principios fundamentales, pero
también son explotadas por actores internos y externos para erosionar la
confianza en las instituciones democráticas. El referéndum del fue influenciado
por campañas de desinformación que aprovecharon las tensiones económicas y culturales.
En estos sistemas, las plataformas actúan como amplificadores de la
polarización y la desinformación, erosionando gradualmente la base de consenso
necesario para una democracia funcional, un fenómeno descrito como "truth
decay" o "erosión de la verdad".
En regímenes fuertes, el efecto de las redes
sociales es el "intensificador". Lejos de ser una amenaza, estas
plataformas son adoptadas y adaptadas como herramientas de vigilancia y
represión para consolidar el poder del estado. China utiliza su "Gran
Cortafuegos" para bloquear acceso a información no deseada y leyes que
obligan a plataformas como WeChat a censurar contenido, creando un ecosistema
digital cerrado y controlado. El gobierno también desarrolla sistemas avanzados
como el "Police Cloud", que integra datos de redes sociales,
telecomunicaciones y biometría para monitorear a los ciudadanos y predecir la
disidencia. En estos contextos, las plataformas no debilitan al estado, sino
que le proporcionan los medios para una supervisión y control más eficiente,
reforzando la dominación autoritaria. La capacidad del estado para intervenir y
regular estas plataformas, junto con la falta de oposición política viable,
asegura que la tecnología se utilice para servir a los intereses del régimen en
lugar de desafiarlos.
En regímenes débiles, tanto democráticos como
autoritarios, las redes sociales pueden tener un "efecto
radicalizador". En democracias débiles, como Brasil, la plataforma
WhatsApp fue instrumental en el ascenso de Jair Bolsonaro en 2018. Se utilizó
para difundir masivamente noticias falsas, atacar a los oponentes y explotar el
miedo a la delincuencia y la corrupción, contribuyendo a una rápida caída en la
satisfacción con la democracia. En regímenes autoritarios débiles, donde el
control estatal es más frágil, las redes sociales pueden tener un "efecto
destabilizador". La Revolución Egipcia de 2011 es un ejemplo
paradigmático, donde plataformas como Facebook y Twitter fueron cruciales para
organizar protestas, compartir información en tiempo real y ganar apoyo internacional,
lo que finalmente condujo al derrocamiento del presidente Hosni Mubarak. En
este escenario, la tecnología funciona como una herramienta de liberación para
los opositores, permitiendo la coordinación y la organización de movimientos
sociales que de otro modo serían imposibles de mantener. Finalmente, en
regímenes autoritarios fuertes, las plataformas pueden tener un "efecto
intensificador", sirviendo como herramientas de vigilancia y represión. La
siguiente tabla resume estos efectos diferenciados:
|
Tipo
de democracia |
Efecto |
Resultados |
|
Democracia Fuerte |
Debilitante |
Amplifica la polarización, fomenta la
desinformación y erosiona la confianza en las instituciones. |
|
Autoritarismo Fuerte |
Intensificador |
Se adopta como herramienta de vigilancia, censura
y control social para reforzar el poder del estado. |
|
Democracia Débil |
Radicalizador |
Facilita el ascenso de líderes populistas a
través de la desinformación y la polarización. |
|
Autoritarismo Débil |
Destabilizador |
Permite la coordinación de opositores y la
movilización contra el gobierno. |
Este marco subraya que no hay una respuesta única a
los problemas planteados por las redes sociales. Las soluciones deben ser
contextualizadas y adaptadas a las características específicas del régimen
político y la sociedad en cuestión, reconociendo que la misma tecnología puede
ser una herramienta de opresión o de liberación, dependiendo del poder y la
intención de quienes la controlan.
Propuesta Argumentativa para un Documento Político
de Difusión
En resumen, el análisis de la intersección entre
dominación política y el uso de las redes sociales revela una transformación
fundamental en el ejercicio del poder. La dominación contemporánea ya no es un
monopolio exclusivo del Estado, sino un fenómeno híbrido que se ha extendido a
un campo de batalla digital compartido por actores privados, geopolíticos y
políticos nacionales. Para un documento de difusión político, es crucial
articular una propuesta argumentativa clara y accionable que resuene con un
público político y ciudadano. El objetivo principal de dicho documento sería
alertar sobre la emergencia de una "dominación digital", donde la
voluntad popular es menos un producto de la deliberación informada y más una
variable susceptible de ser moldeada, manipulada y controlada a través de una
sofisticada maquinaria tecnológica.
El argumento
central debe pivotar en la idea de que la raíz del problema no reside
únicamente en la maldad de actores individuales, sino en la arquitectura
económica y algorítmica de las plataformas tecnológicas. El modelo de negocio
basado en la "atención económica" de las redes sociales, que prioriza
el engagement sobre la veracidad, ha creado un entorno perfecto para la
manipulación sistemática. Por lo tanto, cualquier solución duradera debe
abordar esta causa raíz. La propuesta debería enfocarse en tres áreas clave de
acción. Primero, la urgencia de la regulación algorítmica.
Se debe abogar por legislación que exija transparencia y auditorías
independientes de los algoritmos de recomendación y clasificación de contenido.
Esto permitiría mitigar sus sesgos inherentes hacia la polarización y la
desinformación, y restaurar cierto grado de control público sobre el discurso
digital. Segundo, la necesidad de una gobernanza específica de la IA.
Ante el auge de la inteligencia artificial generativa como arma de dominación,
es imperativo impulsar regulaciones que puedan incluir la obligación de
etiquetar contenido generado por IA, establecer controles robustos para evitar
la manipulación y regular el acceso a los datos de votantes para entrenar
modelos de IA, protegiendo así la integridad de los procesos electorales.
Tercero, el fortalecimiento de la defensa civil.
Es fundamental invertir en educación mediática y alfabetización digital para
empoderar a los ciudadanos para que puedan identificar y resistir la
manipulación. Esto incluye apoyar a organizaciones de verificación de hechos y
promover medios de comunicación alternativos que ofrezcan perspectivas
diversas, construyendo un contrafuego informativo capaz de contrarrestar la
desinformación a gran escala.
En conclusión, la lucha por la soberanía nacional y
la integridad democrática se libra ahora en el terreno digital. La soberanía de
un país ya no puede medirse solo por su territorio o su poder militar, sino
también por su capacidad para proteger su espacio público digital de
intrusiones extranjeras y manipulaciones internas. La integridad de la
democracia depende de la capacidad de los ciudadanos para deliberar sobre una base
de hechos compartidos. Sin una intervención decisiva para reformar el modelo
económico de las plataformas y regular el uso de tecnologías disruptivas como
la IA, corremos el riesgo de ver consolidarse una era de dominación digital,
donde la voluntad popular es menos un producto de la deliberación y más una
variable manipulada en un mercado de atención voraz. Reconquistar el espacio
público digital es, por tanto, la tarea más urgente para defender nuestra
soberanía y nuestros valores democráticos en el siglo XXI.
Comentarios
Publicar un comentario