Ucrania: las 5 desinformaciones que más circularon en la Argentina fueron imágenes o videos fuera de contexto
- A un año del inicio de la guerra, repasamos los formatos más comunes de la desinformación que circula.
- Desde un supuesto aviador ucraniano que se enfrentaba a las fuerzas rusas hasta videos fuera de contexto que intentan poner en duda las muertes de la guerra.
- Los falsos contenidos también fueron retomados por medios de comunicación. Esto le dio mayor amplificación a la desinformación.
La desinformación toma muchas formas, que pueden ir desde audios de WhatsApp de supuestos expertos (“el primo de mi amigo que es médico”) a cuentas impostoras que se hacen pasar por una persona y difunden falsas declaraciones. Puede haber también contenidos manipulados o incluso contenidos humorísticos que pueden desinformar cuando son sacados de contexto.
En el caso de la Guerra en Ucrania, un análisis de Chequeado -en base a un relevamiento de más de 50 contenidos falsos que circularon en los primeros meses del conflicto, entre febrero y agosto de 2022,- encontró que las 5 desinformaciones que más se difundieron fueron imágenes o videos fuera de contexto.
La desinformación que mayor alcance tuvo fue la actividad del “fantasma de Kiev”, un supuesto aviador ucraniano que se enfrentaba a las fuerzas rusas.
Uno de los primeros posteos de esta desinformación vino del ex presidente ucraniano Petró Poroshenko, que publicó la imagen de un piloto en la cabina de un avión, con el mensaje: “En la foto, el piloto MiG-29. El mismo ‘Fantasma de Kiev’. Aterroriza a los enemigos y enorgullece a los ucranianos”.
Luego, el propio gobierno de Ucrania publicó un video en el que se ve a un avión derribando a otro, con el texto “la gente lo llama el Fantasma de Kiev” y agregó “se ha convertido en una pesadilla para los aviones rusos invasores”. Sin embargo, el video es un montaje realizado por un simulador digital de combates.
Esta desinformación sobre el supuesto aviador ucraniano llegó a tener casi 700 mil interacciones y compartidos en redes sociales, y fue la que más circuló en la Argentina.
La siguiente desinformación con mayor difusión fue una foto fuera de contexto de una niña de 9 años sosteniendo un fusil y con un chupetín en la boca, que circuló como si fuese una representación de lo que estaba ocurriendo. En realidad, su padre, el fotógrafo Oleksii Kyrychenko, montó la escena justo antes del inicio del conflicto para “llamar la atención sobre la posible guerra”, según él mismo explicó. Esta imagen tuvo más de 400 mil compartidos e interacciones en el país.
Otro contenido que se viralizó con más de 250 mil interacciones -y que fue compartido por varios medios de comunicación- fue una imagen en la que supuestamente un padre se despedía de su hija para quedarse a combatir contra el ejército ruso. En realidad, la escena se dio en una región separatista rusa, en Donetsk, por lo que el padre se alista en las fuerzas rusas para luchar en contra del ejército ucraniano, al contrario de lo que se dijo.
Hubo también contenidos que se usaron para desinformar sobre la pandemia y la guerra. Es lo que ocurrió con un video de una protesta en contra de la inacción por el cambio climático, en la que un grupo de manifestantes en Austria se acostaron en bolsas mortuorias. En medio de la grabación, uno de los manifestantes se mueve.
Este video fue utilizado para mostrar cómo supuestamente los muertos de la guerra no eran reales y se trató todo de un montaje, la misma lógica con la que se utilizó para desinformar sobre la pandemia de COVID-19. Este contenido tuvo más de 150 mil interacciones en redes sociales.
Por último, un video que supuestamente muestra al presidente de Ucrania, Volodimir Zelenski, y su esposa, Olena Zelenska, tocando la guitarra y cantando, con mensajes como “no sólo es un gran presidente, humano y honesto sino también canta precioso”, también tuvo casi 100 mil interacciones. Sin embargo, era un video de Alejandro Manzano, de la banda estadounidense Boyce Avenue, y la británica Connie Talbot.
Estas desinformaciones puntuales son parte de grandes líneas narrativas que se instalaron durante la guerra, como la insinuación de que el conflicto bélico era un montaje.
Aunque muchos de los falsos contenidos circularon en redes sociales, también fueron amplificados por fuera de ellas, a través de afirmaciones de políticos o contenidos de medios de comunicación. En la Argentina, algunos medios retomaron imágenes y videos de redes sociales sin verificar su autenticidad o si el contexto correspondía a lo que se estaba presentando, lo cual ayudó a la difusión de la desinformación y dificultó aún más acceder a buena información.
Por eso, es importante prestar atención a los contenidos que circulan para identificar cuándo se trata de imágenes reales y no caer en una desinformación.
En muchos casos, esto puede ser difícil de determinar, sobre todo cuando se trata de un conflicto en un país lejano, del que no se habla el idioma y cuando estamos recibiendo cientos de videos e imágenes. En esos momentos, se vuelve aún más importante evitar compartir contenidos de los cuales no tenemos la certeza que no están tergiversados.
Algunas herramientas sencillas que pueden ayudar en esos momentos son Google Lens, que permite hacer búsqueda de una imagen y ver si ésta ya circuló en otros contextos. En el caso de videos, InVid/WeVerify es una extensión del navegador que toma capturas de pantalla de algunas imágenes de un video, con las que luego rastrea en diferentes buscadores para ver si hay coincidencias con videos que ya estaban circulando.
Fecha de publicación original: 24/02/2023
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias