Imagine una guerra sin disparos, sin bombas, pero devastadora. Una batalla que se libra desde pantallas, usando algoritmos en lugar de soldados y donde los bots, no los tanques, invaden sus espacios más íntimos: las redes sociales. Es la “Guerra Irrestricta” del siglo XXI, una estrategia militar que utiliza la tecnología para atacar y debilitar tanto instituciones como figuras públicas a través de la manipulación de la información y la percepción, aunque el concepto va inclusive más allá de esto.
¿Por qué los habitantes de un país destruirían instituciones o empresas necesarias para que su economía o su democracia funcionen? ¿Cómo terminarían deteriorando las instituciones necesarias para garantizar sus derechos? Una estrategia militar propone el uso de la tecnología como herramienta para ganar guerras y destruir un país desde adentro. Una forma de deshacerse de rivales políticos y sembrar dudas sobre opositores. Descubra lo que hay Detrás del Click.
Fue en el año 1999 que se publicó el libro Guerra Irrestricta: Dos coroneles superiores de la Fuerza Aérea sobre escenarios de guerra y el arte operacional en la era de la globalización. En él, los autores chinos Qiao Liang y Wang Xiangsui se hicieron la siguiente pregunta: ¿Cómo lograría China derrotar a un oponente que fuera tecnológicamente superior?
A diferencia de los conflictos tradicionales, esta guerra no se libra únicamente en campos de batalla físicos, sino que parte de su planteamiento puede aplicarse en las redes sociales. En este nuevo frente, los bots y las campañas de desinformación se transforman en soldados invisibles, orquestando ataques dirigidos a figuras públicas, instituciones, medios de comunicación y gobiernos.
En su trabajo La guerra irrestricta: ¿un nuevo modo de hacer la guerra? (2015), Moisés de Pablo López, teniente coronel, explica: “Para que una guerra sea considerada irrestricta debe regirse por el concepto ‘operaciones de guerra no militares’, lo que se ejerce por medio de la desinformación y el control de ciertas áreas sensibles para un país y la sociedad, aumentando el ejercicio de otros tipos de violencia política, económica, tecnológica y sobre el suministro de recursos estratégicos”. En este mismo documento se explica una posible pérdida del predominio de lo militar como método de lucha, a raíz de un amplio espectro de medios y modos en la lista de opciones potenciadas por las nuevas tecnologías, lo que incrementa la gama de actividades relativas a la guerra y la estrategia.
En resumen, la Guerra Irrestricta considera que cualquier recurso puede convertirse en un arma: no hay restricciones o límites. En el caso de la tecnología o las redes sociales, estrategias como la propaganda en internet, la desinformación, el uso de hackers para debilitar infraestructuras digitales, o campañas de desestabilización social y política a través de plataformas digitales hacen de este concepto un peligro para los usuarios que navegan diariamente por los espacios cibernéticos. Más allá del concepto, entender la presencia y las tácticas señaladas para destruir opositores por medio de la manipulación social en internet se vuelve necesario, tanto dentro como fuera de la estrategia de Guerra Irrestricta.
Es posible utilizar diversos mecanismos para desestabilizar y derrotar a un país, sin seguir las reglas convencionales de la guerra. Es una doctrina que refleja la globalización y la interconexión actual, sugiriendo que las guerras del futuro se lucharán en múltiples frentes simultáneamente, tanto militares como civiles, y que la línea entre guerra y paz será cada vez más borrosa.
Propaganda en redes sociales: Estas son sus estrategias, herramientas y técnicas.
Las estrategias de manipulación social usando Internet son muchas, y su uso es cada vez más frecuente en diferentes países. Prueba de esto lo tiene la Universidad de Oxford y su proyecto de investigación sobre propaganda computacional, el cual ha detectado la presencia de campañas organizadas para la manipulación social por medio de redes sociales en países como Colombia, Guatemala, México, Honduras e inclusive Costa Rica.
Según este proyecto, al menos 81 países son víctimas de campañas activas de manipulación, propaganda y desinformación en redes sociales. Muchas de estas operaciones de desinformación son pagadas con grandes cifras para lograr operar las ahora llamadas cibertropas.
- Cuentas automáticas: Estas pueden ser bots políticos curados por un humano que espera la amplificación y difusión de ciertas narrativas. Se ha encontrado que 57 países utilizan estas estrategias de propaganda.
- Troles o cuentas revisadas por humanos: Pueden o no presentar señales de automatización leve, pero generalmente son manejadas por personas a las que se les paga por difundir una narrativa. Pueden hacer publicaciones, reaccionar a publicaciones, enviar mensajes privados e incluso participar en comentarios de páginas con altos índices de interacción. 79 países (incluyendo Costa Rica) han sido detectados usando estos mecanismos, según el reporte de 2020.
- Cuentas hackeadas o que se hacen pasar por otras personas: Incluyen páginas, grupos o perfiles robados para crear cuentas que parezcan reales. Estos mecanismos están presentes en al menos 14 países y buscan ser convincentes a la hora de manipular y difundir una narrativa.
Los mecanismos más frecuentes usados por estas cuentas, aparte de la interacción con usuarios, comentarios y compartir contenido, se centran en la creación de contenido compartible de forma gratuita en redes sociales. Pueden ser tiktoks con cierta información política distorsionada, memes, imágenes con información, videos cortos e incluso sitios web completos.
Otras estrategias tienen que ver con el uso de datos para segmentar cierto perfil de personas en redes sociales. Identificado el tipo de usuario, se le bombardea con anuncios políticos, que van desde imágenes, vídeos, suscripción a supuestos boletines de noticias e incluso compartir artículos con informaciones falsas o verdaderas que tienden a favorecer una narrativa o una idea distorsionada de la realidad.
Todas estas dinámicas en redes sociales crean un ambiente político tenso al navegar por las plataformas. Parte de este ambiente que propicia la controversia y las discusiones es deseado. El troleo, el acoso digital o el doxeo son formas de manipulación en las que se busca callar a opositores. Cuando una avalancha de cuentas cae sobre un usuario que se posicionó en contra de la narrativa, pueden utilizar estas estrategias de acoso para ridiculizarlo o silenciarlo. En algunos casos, el uso de múltiples cuentas para reportar en redes sociales información de medios de comunicación o usuarios logra sancionar la publicación y limitar el alcance de la información no deseada.
Según uno de los informes de Oxford, sobre la manipulación en redes sociales, publicado en 2019 con el nombre 2019 Global Inventory of Organised Social Media Manipulation, el 71% de los países revisados utilizaban estas tácticas para difundir propaganda a favor del gobierno o de un partido político. Esto cambiaría en versiones futuras del informe, llegando al 90% de los países revisados.
Resumen 10 puntos clave sobre la “Guerra irrestricta”:
- Concepto: Estrategia militar que usa tecnología, manipulación de información y redes sociales para debilitar a un país desde dentro.
- No es convencional: Se libra fuera de campos de batalla tradicionales, usando desinformación y propaganda en internet.
- Bots y troles: Actúan como "soldados invisibles", manipulando percepciones y atacando figuras públicas.
- Propaganda computacional: Tácticas amplificadas por algoritmos para sembrar discordia y desconfianza.
- Campañas globales: Detectadas en al menos 81 países, incluida Costa Rica.
- Cuentas falsas: Utilizadas para difundir narrativas específicas y aumentar la polarización.
- Impacto político: Desestabiliza instituciones democráticas, promoviendo la desconfianza.
- Segmentación de usuarios: Campañas dirigidas a perfiles específicos para manipular sus creencias.
- Guerra psicológica: La verdad se distorsiona y lo importante es controlar la narrativa.
- Protección: Se recomienda fortalecer ciberseguridad, desarrollar pensamiento crítico y limitar la exposición a redes sociales.
Los mecanismos de la Guerra Irrestricta, aplicados en lo tecnológico, pueden ser muchos y surgir nuevas tácticas según el avance digital; sin embargo, hay quienes argumentan que este concepto no presenta nada novedoso más allá de las herramientas y las tácticas posibles. ¿La Guerra Irrestricta será el futuro?
En un trabajo titulado Guerra Irrestricta: ¿Una doctrina china para la guerra futura?, el Mayor John A. van Messel, del Cuerpo de Marines de los Estados Unidos, analiza la doctrina china de Guerra Irrestricta y sus implicaciones para los conflictos futuros, criticando que son conceptos militares antiguos aplicados a la modernidad. Si la propaganda ha existido siempre y la planeación estratégica durante las guerras también, puede que el concepto de Guerra Irrestricta se refiera más a un conjunto de técnicas utilizadas en la época moderna, un mal derivado de los tiempos que obliga a repensar los conflictos más allá del choque militar.
“La Guerra Irrestricta, tal como está escrita actualmente, es menos una doctrina ejecutable y más una colección de tácticas, técnicas y procedimientos para adversarios en futuras guerras. Aunque la Guerra Irrestricta seguirá siendo únicamente un concepto, continuará estimulando el pensamiento profesional y la discusión. La Guerra Irrestricta recuerda que los enemigos potenciales siempre están pensando, el campo de la teoría militar está en constante cambio, y garantizar la seguridad nacional es siempre un proceso continuo”, se lee en el documento.
Gran parte de la crítica de algunos estudiosos sigue la lógica de la novedad, entendiendo que la guerra no ha cambiado; pero el contexto del mundo, las estrategias y la evolución tecnológica sí lo han hecho.
Estudiar estos conceptos con objetividad es necesario para crear una población más consciente, ya que los mecanismos son una realidad. Como menciona el autor Fernando E. Ventura en el trabajo Aplicaciones y desafíos de la guerra híbrida, irrestricta y zona gris para los sistemas de defensa latinoamericanos (2019), en un escenario así, se podrá esperar a futuro una relativa reducción de la violencia militar, al mismo tiempo que se observe un incremento de la violencia política, económica o tecnológica. Los países ya no buscan la violencia y el aniquilamiento como primera opción, sino que han encontrado en la tecnología mecanismos más sofisticados que les permiten enfocarse en el control y sometimiento del adversario sin necesidad de luchar.
Sea como sea que se entiendan estos conceptos, puede que en este mismo momento se libre una guerra que no se sabe que existe, en la modernidad, contra enemigos que no se pueden ver, en un campo de batalla que se lleva en cada bolsillo. La Guerra Irrestricta ha llegado para redefinir el entendimiento de las guerras más tradicionales, y su impacto estará en duda. Mientras tanto, queda pendiente la pregunta más importante: ¿quién está realmente en control de la información que usted decide creer?
Presencia de campañas de desinformación en Costa Rica
El auge de las campañas de desinformación a través de plataformas como X, Facebook e Instagram ha generado un problema de proporciones globales. Pero, ¿cómo funcionan estos ataques y cuál es su verdadero impacto? En la época moderna, el arma más poderosa a nivel de información es el control de la percepción en las redes sociales. Se utilizan bots no solo para difundir información falsa, sino también para amplificar divisiones, sembrar desconfianza y erosionar la verdad, pero las formas de afectación son múltiples.
Según explica el autor Fernando E. Ventura en el ensayo Aplicaciones y desafíos de la guerra híbrida, irrestricta y zona gris para los sistemas de defensa latinoamericanos, hacen falta mecanismos y organismos centrados en la ciberseguridad, así como acuerdos para entender el impacto y la importancia de la presencia de narrativas artificiales en los territorios. En el documento se lee que, en el caso de Latinoamérica, se puede encontrar una “debilidad en la gobernabilidad, estabilidad y fortaleza institucional del Estado y del sistema político, así como una escasa o poco diversificada estructura económica y una fragmentación social creciente. Dichos aspectos configuran las debilidades y potenciales amenazas de gran magnitud a resolver”.
Ya sea que dichas campañas o ataques sean parte de un organizado plan militar para desestabilizar objetivos o que simplemente sean mecanismos usados por grupos de presión internos en una región, lo cierto es que estas tácticas existen por toda la red. Muchos países pueden enumerar campañas de desinformación o manipulación que pretenden usar a la población activa en redes sociales para cumplir un objetivo en las sombras.
En Costa Rica, el Tribunal Supremo de Elecciones alertó que las redes sociales podían ser “espacios opacos”. En 2023, explicó a La Nación la importancia de tener colaboración por parte de empresas de redes sociales como Facebook, Instagram, Twitter (ahora X) y TikTok para controlar el flujo de cuentas automatizadas, troles pagados y páginas falsas.
LEA MÁS: ¿Qué propone el TSE para sancionar los troles?
Además, cabe destacar que, incluso en el año 2020, esta entidad ya había experimentado lo denunciado como campañas de desinformación por medio de páginas en Facebook, en las que varias plataformas difundieron una serie de informaciones falsas sobre las elecciones.
Si bien, no está de más destacar que ninguno de estos sucesos significa la presencia de una Guerra Irrestricta, sí refleja la existencia de campañas, cuentas falsas o auténticas que existen en redes y con las que se topan los usuarios, afectando a instituciones públicas. Es una parte ya cotidiana de Internet con la que los usuarios tendrán que convivir y, al mismo tiempo, aprender a reconocer.
Otro ejemplo sucedió en 2022, cuando la empresa Meta, dueña de plataformas como Instagram y Facebook, anunció que por primera vez se comprobaba la presencia de comportamiento inauténtico coordinado en Costa Rica. Meta reconoció una operación encubierta que implicó el pago de $128.000 en publicidad en Facebook e Instagram, y utilizó cientos de perfiles de personas ficticias camuflados con inteligencia artificial.
En ese entonces, una de las personas acusadas de incidir en las elecciones en Costa Rica negó que manipular el discurso por las elecciones fuera su objetivo. Sin embargo, confirmó la administración de cuentas, afirmando: “Sí, manejamos perfiles falsos de la misma manera que toda agencia de comunicación, marketing digital y publicidad tiene su propia base de cuentas falsas. La agencia de comunicación o el profesional de comunicación que diga que no tiene cuentas falsas, o no sabe ni en qué está metido o está mintiendo”.
Además, también en 2020, un estudio de Oxford anunció que políticos y troles manipulaban la opinión en Costa Rica con estrategias rudimentarias de fake news. En este estudio se mencionó el concepto de “cibertropas”, definido como “actores del gobierno o los partidos políticos encargados de manipular la opinión pública en línea”.
“Las cibertropas de Costa Rica son locales. Varios partidos políticos, organizaciones de la sociedad civil e individuos se han involucrado en la difusión deliberada de desinformación durante campañas políticas, promoviendo el populismo anti-establishment, así como discursos homofóbicos y xenofóbicos”, apuntó el informe de la académica en ese entonces.
¿Cómo protegernos de ataques y campañas de desinformación?
Podríamos pensar que la solución es sencilla: desenchufar el Wi-Fi. Pero claro, con el ritmo frenético del mundo digital, eso sería poco factible para la mayoría de las personas. Entre fake news y deepfakes, la tecnología busca tender una trampa, donde cada notificación acerca más al colapso de la capacidad crítica.
Es una forma de guerra psicológica en la que la verdad ya no es lo que importa, sino quién controla la narrativa. Las campañas de desinformación, financiadas muchas veces por grupos de poder, han transformado el campo de batalla digital en una verdadera trampa para los usuarios. ¿Cómo protegerse?
“Encontramos que la desinformación industrializada se ha vuelto más profesionalizada y producida a gran escala por los principales gobiernos, partidos políticos y empresas de relaciones públicas”, se lee en el documento. Además, se explica la afectación por malas decisiones en el diseño de tecnología, una supervisión laxa de las políticas públicas, la inacción de los líderes de las plataformas de redes sociales, y las inversiones de gobiernos autoritarios, así como de partidos políticos.
“La propaganda computacional impulsa otros males democráticos, como la polarización política y la disminución de la confianza pública en las instituciones democráticas. Las plataformas de redes sociales pueden ser una parte importante de las instituciones democráticas, las cuales pueden fortalecerse con información de alta calidad. Una democracia fuerte requiere acceso a esta información, donde los ciudadanos puedan reunirse para debatir, discutir, deliberar, empatizar, hacer concesiones y trabajar hacia un consenso”, concluye el informe.
Si bien es necesaria una responsabilidad política, una discusión legal sobre temas informáticos y una toma de decisiones por parte de empresarios líderes en redes sociales respecto a este tema, los usuarios también pueden tomar acciones para protegerse de estos mecanismos de propaganda. Entre ellas:
- Fortalecer la ciberseguridad personal: Tenga contraseñas seguras, evite que le roben sus datos, sus fotos o sus publicaciones. Denuncie en redes sociales si se hacen pasar por usted. Mantenga hábitos de ciberseguridad responsables y actualice sus aplicaciones. Revise los URLs de las direcciones para asegurarse de que está en el sitio web real y no en una copia.
- Desarrollar el pensamiento crítico: Verifique fuentes de información, no crea en comentarios de usuarios que no conoce en redes sociales, no responda a provocaciones y evite darles interacción a cuentas bajo sospecha de ser propagandísticas. Verifique la información con varias fuentes antes de replicarla. Confíe en medios de comunicación reconocidos y en sitios que incluyan referencias claras. Expóngase a diferentes puntos de vista y múltiples medios de comunicación para evitar caer en burbujas ideológicas.
- Bloquear o reportar cuentas falsas: Aprenda a identificar bots y cuentas sospechosas que puedan estar difundiendo propaganda o atacando a otros usuarios. Use las opciones de bloqueo y reporte de la plataforma.
- Educarse sobre el mundo digital: Aprender sobre la propaganda computacional y entender cómo los algoritmos promueven contenido polarizador o falso le ayudará a ser más consciente de su propio comportamiento en línea.
- Limitar la exposición a redessociales: Reduzca el tiempo de uso de las plataformas, ya que la sobreexposición a ellas le hace más vulnerable a la manipulación.
- Apoyar regulaciones y buenas prácticas: Infórmese sobre leyes de protección de datos. Apoye la legislación que favorece la protección de datos personales y la transparencia en el uso de algoritmos.
- Ser un consumidor responsable de información: No comparta información sin verificar. Piense dos veces antes de compartir algo que podría contribuir a la difusión de noticias falsas o propaganda.