La verificación de datos reduce la circulación de desinformación en Facebook en aproximadamente un 8%
- Investigadores de la Universidad Sciences Po (Francia) demostraron que el programa de verificadores independientes de Meta reduce la difusión de información falsa en esa red social.
- La investigación revela que los usuarios eliminan publicaciones marcadas como falsas y comparten menos desinformación después de ser señalados, lo que sugiere cambios conductuales voluntarios.
- El 7 de enero de 2025 el CEO de la compañía, Mark Zuckerberg, anunció que Meta reemplazaría en EE.UU. su programa de verificación de datos por un modelo de Notas de la Comunidad similar al de X.
Se cumple un año desde que el CEO Mark Zuckerberg anunció que Meta reemplazaría su Programa de Verificación Independiente de Hechos (Third Party Fact Checking, o 3PFC) en Estados Unidos por un modelo de Notas de la Comunidad similar al de X.
El proyecto piloto de las Notas de Meta arrancó en marzo en EE.UU. y no se encuentra disponible, por el momento, en otros países.
Si bien 3PFC dejó de existir en dicho país, sigue vigente a nivel mundial. En este contexto, un nuevo estudio de investigadores de la Universidad Sciences Po en París, Francia, demostró que la verificación de datos reduce la circulación de desinformación en Facebook en aproximadamente un 8%.
La verificación reduce la interacción con información falsa
“La verificación de hechos reduce la circulación de desinformación en Facebook en aproximadamente un 8%, un efecto impulsado exclusivamente por las historias calificadas como ‘Falsas’”, destaca el estudio entre sus conclusiones.
“Es un efecto positivo, estadísticamente significativo”, subrayó a AFP la investigadora Julia Cagé, que participó en el estudio.
Para la investigación, uno de los autores trabajó como verificador de datos en AFP Factual, la unidad de verificación de datos de la agencia francesa de noticias, entre diciembre de 2021 y junio de 2023. El investigador recopiló datos detallados sobre el origen, la temática y la viralidad de 944 desinformaciones revisadas por AFP Factual en esos 18 meses.
El estudio permitió comparar la viralidad de publicaciones efectivamente verificadas por AFP con la trayectoria de publicaciones similares sin chequear.
Cagé también indicó a AFP que la cifra promedio del 8% “esconde mucha heterogeneidad” en el impacto de la verificación, que varía según varios factores. La viralidad de una noticia que se demostró ser falsa disminuye más significativamente cuando la verificación se realiza rápidamente.
El impacto del “fact-checking” también varía según los temas tratados. El estudio evidencia un efecto más fuerte cuando la información falsa se relaciona con la guerra en Ucrania, y un efecto limitado en temas de salud o medio ambiente.
Parte de esta reducción podría deberse al comportamiento del usuario más que a sanciones algorítmicas
En el estudio se observaron respuestas de comportamiento significativas por parte de los usuarios: “Las publicaciones relacionadas con historias verificadas tienen mayor probabilidad de ser eliminadas, y los usuarios cuyas publicaciones fueron calificadas como falsas se vuelven menos propensos a compartir desinformación en el futuro”.
“Estos hallazgos sugieren que la verificación de hechos no solo frena la difusión de noticias falsas, sino que además, lejos de obstaculizar la libertad de expresión, incentiva a los usuarios a adoptar comportamientos más responsables en línea”, aseguran los investigadores.
Además, señalaron que “los resultados cuestionan la idea de que la verificación de hechos represente una amenaza para la libertad de expresión”, tal como señaló Zuckerberg. “Muchos de los efectos observados se derivan de respuestas conductuales voluntarias de los usuarios -como la eliminación de publicaciones marcadas como falsas o el ajuste de su comportamiento futuro de compartición- más que de la relegación de contenido por parte de la plataforma”, asegura el trabajo.
“Para un usuario promedio, haber compartido una noticia falsa que luego se señala como tal reduce, a corto plazo, su uso de las redes sociales. Es decir, compartirá menos información en Facebook y, sobre todo, compartirá menos noticias falsas”, detalló Cagé a AFP.
Este estudio se suma a otros anteriores que demuestran que el fact checking genera impacto. En Argentina, una investigación sobre Chequeado en las elecciones presidenciales de 2019 llevada adelante por los académicos Ernesto Calvo y Natalia Aruguete muestra que ver un contenido catalogado como falso no genera que la gente cambie necesariamente de opinión, pero sí que cambie su comportamiento, al reducir el incentivo para compartir contenido desinformante o alejado de la evidencia en redes.
Algo similar ocurre con los líderes políticos: según un estudio realizado por Full Fact (Inglaterra), África Check (Sudáfrica) y Chequeado (Argentina), los candidatos a los que se les advirtió que iban a ser chequeados tuvieron menos frases calificadas como falsas que a los que no se les avisó nada.
La evidencia del impacto de las Notas de la Comunidad
Hasta el momento, y a diferencia de X, Meta sólo ha hecho públicos datos muy generales: alrededor de 70 mil usuarios han escrito 15 mil notas, con una tasa de publicación del 6%. Por lo tanto, la evidencia disponible sobre cómo funciona el sistema es en base a la experiencia en X.
Estudios académicos y organizaciones especializadas señalan que las Notas de la Comunidad tienen efectos marginales para combatir la desinformación, especialmente en temas políticos polarizados.
Así como las notas muestran limitaciones en la lucha contra la desinformación, otros trabajados han detectado que la moderación en X no ha sido efectiva para contener el aumento del discurso de odio en la plataforma, que ha crecido desde la adquisición de Elon Musk, según un reciente estudio de especialistas de las universidades de California y del Sur de California (Estados Unidos), publicado en la revista cientifica PLOSOne.
Por otro lado, los verificadores independientes son la tercera fuente más citada en las Notas de la Comunidad de X, solo detrás de la propia plataforma y Wikipedia, según un análisis de la Fundación Maldita.es.
El programa de verificadores independientes es un sistema implementado por Meta desde 2016 para ayudar a combatir la desinformación en sus redes sociales, del que participan Chequeado y varios miembros de LatamChequea. En él, los periodistas chequeadores analizan los posteos potencialmente desinformantes y -si la evidencia muestra que son verdaderos, falsos o engañosos- los etiquetan.
Luego, es la compañía quien decide qué hace con esta información. Según explicaron en múltiples ocasiones desde Meta, la política de la plataforma es reducir la visibilidad del contenido, añadir contexto a los posteos y alertar a quienes lo compartieron que había nueva información disponible.
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias