Los videos falsos creados con IA, la desinformación protagonista de 2025
- En 2025, la política local recurrió a la inteligencia artificial (IA) como fuente de desinformación en plena campaña electoral argentina. La IA sirvió como herramienta global para viralizar narrativas falsas en contextos políticos.
- Este año creció la viralización del “AI slop”, contenido de baja calidad y masivo generado con IA pensado para captar atención rápida en redes sociales. Estos videos incluyeron, entre otro tipo de contenidos, videos de animales en distintas situaciones para generar empatía con el público.
- La inteligencia artificial también fue utilizada para animar imágenes fijas, recrear rostros o “revivir” a personas fallecidas. Uno de los principales personajes en este tipo de contenidos fue el Papa Francisco.
Durante 2025, los videos falsos creados con inteligencia artificial (IA) ocuparon un lugar central en la desinformación. Los protagonistas de estos contenidos fueron desde dirigentes políticos hasta animales o personas fallecidas. En muchos casos, los videos difundieron declaraciones falsas, supuestas bajas de candidaturas o anuncios de medidas que nunca existieron.
En un año electoral, este tipo de piezas creció a pasos agigantados en Argentina. Como resultado, distinguir entre contenidos reales y falsos se volvió cada vez más complejo.
IA y política: una fórmula cada vez más utilizada para desinformar
En 2025, la política local recurrió a la IA como fuente de desinformación en plena campaña electoral. Primero se viralizó un video falso donde supuestamente el ex presidente Mauricio Macri anunciaba que la primera candidata a legisladora Silvia Lospennato (PRO) se bajaba de las legislativas porteñas.
El gobernador bonaerense Axel Kicillof también fue víctima de la IA en un video donde anunciaba un supuesto aumento de impuestos. Y unos videos falsos del presidente Javier Milei donde pedía que voten a La Libertad Avanza para “sacarle las sillas de ruedas a los discapacitados” y de Jorge Taiana en el que supuestamente renunciaba a la candidatura a diputado nacional también circularon de manera viral en redes sociales.
Este fenómeno, sin embargo, no se limitó al plano local. A nivel internacional, también se viralizaron videos de figuras como el presidente de Estados Unidos, Donald Trump, y el ex mandatario estadounidense, Barack Obama. De este modo, se reforzó una tendencia global: la IA como herramienta para viralizar narrativas falsas en contextos políticos.
“AI slop”: menos inteligente, más artificial
Además de las desinformaciones sobre dirigentes políticos, este año creció la viralización del “AI slop”, es decir, contenido de baja calidad y masivo generado con IA. Este tipo de contenido llamativo y repetitivo está pensado para captar atención rápida en redes sociales. Una de sus principales consecuencias es la desinformación que producen, ya que representan situaciones que no son reales y muchas veces no se indica su origen sintético.
Estos videos incluyen desde supuestas grabaciones de cámaras de seguridad con situaciones absurdas hasta videos que insertan a personas con obesidad en toda clase de situaciones, que muchas veces refuerzan los estereotipos y la gordofobia.
El uso de animales para generar empatía con el público fue esencial. Los vimos hacer de todo, inclusive situaciones que muchas veces generan confusión.
La generación de contenido creado con esta tecnología está transformando la forma en que percibimos la fauna silvestre, planteando serios desafíos: muchas de esas representaciones son falsas. Este contenido falso distorsiona la comprensión del mundo natural y puede interferir con los esfuerzos de conservación al mostrar comportamientos imposibles.
La IA más allá de la política: dar movimiento a lo que no lo tiene
La inteligencia artificial también fue utilizada para animar imágenes fijas, recrear rostros o “revivir” a personas fallecidas, e incluso famosos. Fotos antiguas transformadas en videos, personajes históricos sacándose selfies o figuras públicas fallecidas aparecieron en contenidos virales a lo largo del 2025.
Un personaje fallecido este año y que fue caracterizado por la IA luego de su muerte fue el Papa Francisco. Lo curioso es que la IA recurrió a la imagen del pontífice para generar su primer contenido mega viral, allá por 2023.
También circularon videos de la reina Isabel II, tras 3 años de su fallecimiento. Entre los contenidos más virales, la reina aparece rapeando, practicando lucha libre o trabajando como cajera de supermercado.
Esta práctica generó que los hijos del actor Robin Williams, quien falleció en 2014, condenaran el uso de la IA para crear videos de su padre. Zelda Williams, hija de Robin Williams, pidió en Instagram que dejaran de enviarle clips de su padre generados por IA. Es “enloquecedor”, afirmó.
Cómo identificar estos contenidos y por qué importa
La viralización de videos falsos hechos con IA refuerza la necesidad de desarrollar una mirada crítica frente a lo que circula en redes sociales. Revisar la fuente, desconfiar de contenidos demasiado impactantes, chequear si otros medios confiables informaron lo mismo y prestar atención a errores visuales o de audio son algunas de las claves para no caer en la desinformación.
También existen herramientas que ofrecen soluciones para detectar contenidos hechos con IA, aunque no son 100% fiables: Get Real, Hive Moderation, DeepFake-o-meter e InVid-WeVerify.
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias