La guerra informativa ha dejado de ser un duelo de comunicados oficiales y discursos televisados para convertirse en una batalla de algoritmos y estímulos visuales rápidos. En la actualidad, el conflicto se libra mediante la artillería de memes con IA, donde videos virales, imágenes absurdas y montajes generados por inteligencia artificial se desplazan con velocidad quirúrgica por las redes sociales, diseñados no solo para informar, sino para desgastar la noción misma de una verdad compartida.
Este fenómeno ha alcanzado un punto crítico en las tensiones recientes entre Estados Unidos, Israel e Irán. Lo que comienza como un intercambio de propaganda se ha transformado en una inundación de contenido sintético que busca mover emociones primarias y sembrar confusión en el público global. El objetivo ya no es necesariamente convencer al adversario con argumentos, sino saturar el entorno informativo hasta que la distinción entre lo real y lo fabricado sea irrelevante.
Un ejemplo paradigmático ocurrió a principios de marzo, tras los primeros ataques estadounidenses e israelíes contra Irán. La Casa Blanca publicó un video que integraba imágenes reales de operaciones militares con fragmentos de anime, videojuegos, series y películas populares. Esta táctica de “estetización” de la guerra fue respondida rápidamente por Irán y sus simpatizantes, quienes inundaron las plataformas digitales con imágenes de conflictos antiguos presentadas como actuales y piezas creadas con IA que simulaban ataques contra Tel Aviv y bases estadounidenses en el Golfo Pérsico.
La escalada llegó a niveles de surrealismo digital con la aparición de videos donde figuras como Donald Trump, el ayatolá Khamenei, Benjamin Netanyahu y Jeffrey Epstein aparecían representados como piezas de Lego. Aunque la estética parece ridícula, la lógica subyacente es el uso de lo extravagante para crear vínculos simbólicos negativos, asociando a los líderes políticos con figuras siniestras o caricaturescas para generar un rechazo automático en el espectador.
El ascenso de la “slopaganda”: Basura digital con fines políticos
Este nuevo paradigma de manipulación ha sido denominado slopaganda, un término acuñado recientemente en la publicación Filosofiska Notiser. A diferencia de la propaganda tradicional, que solía basarse en relatos estructurados y una apariencia de seriedad para manipular creencias y procesos cognitivos, la slopaganda es, literalmente, “basura generada por IA”.
La inteligencia artificial generativa ha permitido que la producción de este material sea barata, abundante y extremadamente veloz. La slopaganda no intenta siempre engañar de forma literal o presentar un argumento coherente; a menudo apuesta por lo burdo, lo desinhibido y lo absurdo para capturar la atención de un usuario distraído que navega entre pestañas del navegador.
El impacto de esta técnica se observa en la comunicación política contemporánea. En octubre de 2025, Donald Trump difundió un video generado por IA donde se le veía piloteando un avión de combate, portando una corona y lanzando excremento sobre manifestantes en Estados Unidos. En otra pieza, imaginaba su biblioteca presidencial como un rascacielos ostentoso con ascensor dorado. Estos contenidos no buscan ser interpretados como hechos, sino como señales simbólicas que refuerzan la imagen del líder o degradan al adversario.
El riesgo del “colapso del contexto” en tiempos de crisis
El peligro de la artillería de memes con IA se intensifica durante guerras y emergencias, momentos en los que la demanda de información rápida es máxima pero las fuentes verificadas tardan más en consolidar sus reportes. En este vacío, la slopaganda encuentra un terreno fértil para penetrar las defensas mentales del usuario.
Expertos en desinformación advierten sobre el fenómeno del colapso del contexto. Esto ocurre cuando una broma, una provocación o un contenido deliberadamente confuso se extrae de su entorno original y comienza a interpretarse como algo serio. El resultado es una erosión sistémica de la confianza: el público no solo empieza a dudar de lo que es falso, sino que comienza a sospechar de la autenticidad de los hechos reales.
Este desgaste de la verdad compartida es especialmente peligroso en sociedades ya polarizadas por crisis económicas o militares. Cuando la capacidad de saber algo con certeza desaparece, la opinión pública se vuelve más susceptible a la manipulación masiva, lo que puede influir directamente en la legitimidad de elecciones o en el apoyo popular a conflictos armados.
Dinámica de la propaganda sintética vs. Tradicional
| Característica | Propaganda Tradicional | Slopaganda (IA) |
|---|---|---|
| Producción | Costosa, requiere guion y edición | Bajo costo, generación instantánea |
| Estética | Solemne, busca autoridad | Absurda, viral, estética de meme |
| Objetivo | Cambiar una creencia específica | Saturar el entorno y generar duda |
| Circulación | Canales oficiales, medios masivos | Redes sociales, algoritmos de recomendación |
Estrategias para mitigar la inundación de ruido digital
Ante la tormenta de contenido sintético, se han propuesto líneas de acción en tres niveles distintos para proteger el ecosistema informativo y combatir la desinformación generativa.
- Alfabetización Digital: Fomentar que los usuarios aprendan a detectar señales técnicas de IA en imágenes y videos. La recomendación de los expertos es dejar de evaluar cada pieza de contenido de forma aislada y empezar a identificar y bloquear las fuentes que difunden engaños de manera recurrente.
- Regulación Industrial: Implementar soluciones tecnológicas como marcas de agua digitales obligatorias para todo contenido generado por IA y la eliminación coordinada de material sensible o noticias falsas en plataformas de alta circulación.
- Responsabilidad Corporativa: Exigir que gigantes tecnológicos como OpenAI, Google y X asuman la responsabilidad financiera de la regulación y la educación digital, posiblemente mediante impuestos destinados a fondos de alfabetización mediática.
La lucha contra la slopaganda no se trata solo de desmentir un video falso, sino de reconstruir la infraestructura de la verdad en un mundo donde la capacidad de crear simulacros es casi infinita. El siguiente paso crítico será la implementación de normativas internacionales sobre el etiquetado de contenido sintético, cuya discusión continúa en los foros de gobernanza digital de la Organización de las Naciones Unidas.
¿Cómo identifica usted el contenido generado por IA en sus redes? Le invitamos a compartir sus experiencias y opiniones en la sección de comentarios.
