Meta abandona la verificación de datos en los Estados Unidos: ¿cómo impacta en la lucha contra la desinformación?
- La compañía de Mark Zuckerberg reemplazará su programa de verificación de datos independiente en los Estados Unidos con un modelo de notas de comunidad similar al de X.
- La comunidad de fact-checking en todo el mundo rechazó el anuncio y remarcó que el periodismo de verificación de datos nunca censuró ni eliminó publicaciones, y que los verificadores siguen un Código de Principios que exige imparcialidad y transparencia.
- Los especialistas consultados por Chequeado advirtieron sobre las consecuencias negativas que esta decisión podría traer sobre la circulación de desinformación.
La compañía Meta reemplazará su programa de verificación de datos independiente en los Estados Unidos con un modelo de notas de la comunidad similar al de X. La noticia fue comunicada el martes por Mark Zuckerberg, CEO de la compañía que engloba a Instagram, Facebook, WhatsApp y Threads, quien justificó la decisión al señalar que el sistema de chequeos tenía “demasiados errores” y “demasiada censura”.
El anuncio generó el inmediato rechazo de la comunidad de fact-checkers en todo el mundo, quienes remarcaron que el periodismo de verificación de datos nunca censuró ni eliminó publicaciones, y que los verificadores siguen un Código de Principios que exige imparcialidad y transparencia. Por su parte, los especialistas consultados por Chequeado advirtieron sobre las consecuencias negativas que esta decisión podría traer sobre la circulación de desinformación.
Desde 2016, Meta trabaja con más de 100 verificadores de datos independientes en todo el mundo, certificados por la Red Internacional de Fact-Checking (IFCN, por sus siglas en inglés), para etiquetar contenido desinformante en Facebook, Instagram y Threads. Chequeado forma parte del programa Third Party Fact-checking desde 2018.
¿Qué anunció Meta en relación a su programa con verificadores de datos independientes en los Estados Unidos?
“Vamos a eliminar a los verificadores de datos y reemplazarlos con notas comunitarias similares a las de X, comenzando en los Estados Unidos”, explicó Zuckerberg en un video que se difundió también con un comunicado de la compañía titulado: “Más discurso, menos errores”.
“Construimos sistemas complejos para moderar contenido. El problema con los sistemas complejos es que cometen errores. Las recientes elecciones también parecen ser un punto de inflexión cultural hacia volver a priorizar la libertad de expresión”, sostuvo el CEO de Meta sobre la moderación de contenido.
Y agregó: “Intentamos de buena fe abordar esas preocupaciones sin convertirnos en árbitros de la verdad. Pero los verificadores de datos han sido demasiado sesgados políticamente y han destruido más confianza de la que han generado, especialmente en los Estados Unidos”.
Sin embargo, Zuckerberg no dio ejemplos de verificaciones de datos que consideró sesgadas ni presentó evidencias sobre cómo cree que los verificadores de datos han destruido la confianza.
Por otro lado, la compañía también anunció que eliminará varias restricciones sobre temas como la inmigración y la identidad de género, y cambiará la forma en que se aplican las políticas “para reducir el tipo de errores que representan la gran mayoría de la censura en nuestras plataformas”. También se reincorporará el contenido político en los feeds de las personas que quieran verlo.
El rechazo de la comunidad de fact-checking en todo el mundo
Angie Holan, directora de la Red Internacional de Fact-Checking (IFCN, por sus siglas en inglés), aseguró en un comunicado en X que la decisión “perjudicará a los usuarios de redes sociales que buscan información precisa y confiable para tomar decisiones sobre su vida cotidiana y sus interacciones con amigos y familiares”.
Y agregó: “El periodismo de verificación de datos nunca ha censurado ni eliminado publicaciones; ha añadido información y contexto a afirmaciones controvertidas, y ha desmentido contenido falso y teorías conspirativas. Los verificadores de datos que trabajaron con Meta siguen un Código de Principios que exige imparcialidad y transparencia”.
Para la experta, “es lamentable que esta decisión se produzca tras la fuerte presión política de una nueva administración y sus partidarios. Los verificadores de datos no han sido parciales en su trabajo; esa línea de ataque proviene de quienes sienten que deberían poder exagerar y mentir sin ser refutados ni contradichos”.
“El fact checking no es censura, es una herramienta que empodera ciudadanos”, sentenció la red de chequeadores LatamChequea en un comunicado. Y agregó: “Nos preocupa que para argumentar su decisión, el fundador de Meta relacione al periodismo de verificación con la censura, cuando en ningún caso los chequeadores deciden qué ocurre con los contenidos. Nuestro trabajo finaliza al señalar que se trata de posteos verdaderos, falsos o engañosos tras un riguroso proceso de verificación que sigue un método público. Los chequeadores siempre hemos defendido la libertad de expresión y lo que buscamos es aportar evidencia, información verificada y contexto sobre lo que circula para empoderar a los usuarios en su toma de decisiones, no eliminar ni censurar contenidos”.
La Red Europea de Estándares de Verificación de Datos (EFCSN, por sus siglas en inglés) condenó “fuertemente” los anuncios de Meta “que vinculan la verificación de hechos con la censura” en un comunicado.
Los fact checkers que forman parte del programa de verificación de datos de la compañía no deciden sobre la moderación de contenidos. Esto es una política de la empresa. Así lo aclara Meta en su página web sobre el funcionamiento del programa.
Fuente: sitio web de Meta.
Además, la EFCSN apuntó que, mientras que Meta alude a “demasiados errores y demasiada censura” en el comunicado, el informe de transparencia más reciente de la empresa muestra que el contenido al que se le bajó la visibilidad por error tras ser verificado afectó solo al 3,15 % del total de quejas por degradación en Facebook. Meta también ha celebrado anteriormente el programa como exitoso y beneficioso para los usuarios.
Por su parte, Politifact, verificador de datos de los Estados Unidos, también se pronunció al respecto y dijo que “la decisión de retirar a los periodistas independientes del programa de moderación de contenido de Facebook en los Estados Unidos no tiene nada que ver con la libertad de expresión o la censura”.
María Ressa, Premio Nobel de la Paz, advirtió en una entrevista con AFP que se avecinan “tiempos extremadamente peligrosos”, y sostuvo: “Mark Zuckerberg dice que es una cuestión de libertad de expresión, eso es completamente falso”. Para la periodista, “solo si te mueve el lucro puedes afirmar eso; solo si quieres poder y dinero puedes afirmar eso. Esto es una cuestión de seguridad. Los periodistas tienen un conjunto de estándares y ética”.
¿Qué impacto tendrá la decisión de Meta, según los especialistas?
“El efecto de la nueva decisión de eliminar moderación en Facebook es severamente dramático en muchos sentidos”, sostuvo a Chequeado Ernesto Calvo, investigador de la Universidad de Maryland (Estados Unidos) y coautor del libro Fake news, trolls y otros encantos: cómo funcionan (para bien y para mal) las redes sociales.
“En primer lugar, vimos que las consecuencias para X sobre la eliminación del área de moderación produjo un aumento en el nivel de toxicidad de la red, un aumento de la circulación de noticias falsas y un deterioro de las condiciones de la plataforma. Sorprende un poco la decisión de Zuckerberg porque las consecuencias para X fueron una caída muy importante de anuncios publicitarios y del uso de la plataforma”, dijo Calvo.
“En segundo lugar, sorprende que haya sido tan abierta la decisión de Zuckerberg de realizar un cambio en las políticas de la plataforma por decisión política vinculada al ascenso del nuevo presidente. Fue muy explícito que esos cambios se deben a que la elección fue ganada por Trump”, sumó el especialista.
“Los ‘limpiadores de contenidos’ tienen una mayor experticia que el usuario de a pie para ejercer un rol de verificador. Por eso, veo problemático que cualquier usuario, pasando filtros triviales, esté habilitado para llevar a cabo una acción de ‘verificación’ sin que haya una instancia de fiabilidad ni de responsabilización de las plataformas sobre ese procedimiento. Sobre todo porque las notas de la comunidad no necesariamente se rigen por las normas de la plataforma, a las cuales responden los verificadores independientes, aún cuando podamos criticar los criterios de dichas normas y debatir su opacidad”, señaló a este medio Natalia Aruguete, doctora en Ciencias Sociales e investigadora del Conicet.
Eugenia Miltchestein, directora del Departamento de Ciencias Sociales de la Universidad de San Andrés y con un doctorado en Medios, tecnología y sociedad de la Universidad Northwestern (Estados Unidos), también reflexionó sobre la noticia. “Hay que pensar en varios tipos de impacto. El primero es en la cantidad de posteos que serán chequeados. Tal vez la desaparición del fact-checking (en Meta) haga que más personas/instituciones posteen desinformación. Y administrar las community notes también implica trabajo, ¿cuántas habrá? ¿Más o menos qué fact-checks ‘oficiales’?”, dijo a Chequeado.
El fact-checking funciona
Según el comunicado de la compañía, Meta no escribirá las notas de la comunidad ni decidirá cuáles se muestran. Serán escritas y clasificadas por usuarios contribuyentes. Las notas de comunidad requerirán un acuerdo “entre personas con una variedad de perspectivas para ayudar a evitar calificaciones sesgadas”.
Para la EFCSN, el sistema de notas de la comunidad propuestas por Meta tiene debilidades: “En el contexto de las elecciones de 2024 en Estados Unidos, Poynter descubrió que Community Notes de X tuvo, en el mejor de los casos, un efecto extremadamente marginal para combatir la desinformación electoral. En otra investigación, la organización Science Feedback, miembro de la EFCSN, encontró que la mayoría del contenido en X que los verificadores de datos identificaron como falso o engañoso no tenía señales visibles de haber sido moderado”.
Informes de The Washington Post y del Centro para Contrarrestar el Odio Digital en Estados Unidos descubrieron que la función de notas de la comunidad de X no lograba detener el flujo de desinformación en la plataforma.
Sobre las notas de comunidad, Calvo reflexionó: “Las notas de comunidad tienen una función mucho más limitada en una red como Facebook o Instagram. En principio, sería raro que en una red como Facebook, si un amigo pone cierta información, que esa persona agregue una nota comunitaria para desmentir lo que está diciendo un amigo, por lo cual en redes cerradas la capacidad de poner esas notas es visto como un acto de agresión, no como una nota comunitaria”.
Y agregó: “No se puede delegar en notas comunitarias la actividad que hoy cubre el fact-checker. Eso es distinto en X porque es una red de microblogging, donde muchos actores que no son de la red íntima de quien escribe pueden editar esos comentarios comunitarios”.
Diversos estudios han demostrado que las verificaciones de datos efectivamente disminuyeron la viralización de la desinformación. La pandemia de COVID-19 demostró la utilidad de la verificación independiente de datos en Facebook. Los verificadores de datos ayudaron a frenar mucha desinformación perjudicial para la salud sobre el virus y la eficacia de las vacunas.
Nota de la Redacción: Chequeado es parte del programa de verificadores independientes de Meta desde 2018.
Actualización 09/01/2025: esta nota se actualizó tras el comunicado de LatamChequea y las declaraciones de María Ressa.
Fecha de publicación original: 08/01/2025
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias