Skip to content

Cómo los chequeadores podemos aprovechar el impulso de la Inteligencia Artificial Generativa

Desde hace varios años que en el área de Innovación de Chequeado trabajamos para poner la tecnología al servicio de los chequeadores: el lanzamiento de Chequeabot -nuestra plataforma de herramientas basadas en inteligencia artificial- marcó el comienzo de un camino que hoy seguimos transitando para lograr que esta tecnología nos ayude a chequear más rápido y mejor y que la lucha contra la desinformación sea más pareja.

Cuando lanzamos Chequeabot en 2016, hablar de inteligencia artificial no era ni de cerca lo que es ahora. La irrupción de la inteligencia artificial generativa, y en particular, la aparición de los LLM (grandes modelos de lenguaje, por sus iniciales en inglés), puso el término inteligencia artificial en boca de todos, tanto por las nuevas capacidades y funcionalidades que aparecieron como por su accesibilidad para usuarios fuera del campo del desarrollo y la tecnología.

Hoy, las grandes empresas tecnológicas lanzan nuevos avances, modelos y herramientas a un ritmo vertiginoso, lo cual dificulta la integración de estas tecnologías en organizaciones que no tienen los recursos o el financiamiento para mantenerse al día en un ámbito tan disruptivo y cambiante. 

Por todo esto, desde el área de Innovación de Chequeado pusimos en marcha un Laboratorio de Inteligencia Artificial, integrado por un equipo interdisciplinario para pensar nuevas maneras de integrar esta tecnología en nuestro trabajo y encontrar nuevas y mejores maneras de contribuir a nuestra comunidad. Impulsado por el  fondo ENGAGE otorgado por IFCN (International Fact-Checking Network) como parte del  Global Fact Check Fund, este equipo dedicará los próximos meses a explorar los potenciales usos de la IA generativa en el ámbito del fact-checking y compartir todo lo que aprendamos en el camino con nuestros colegas y la comunidad.

Cómo los chequeadores podemos aprovechar el impulso de la Inteligencia Artificial Generativa

Ilustración generada con DALL·E 3.

Uno de los riesgos principales de utilizar este tipo de tecnología es su tendencia a alucinar. Los LLM son propensos a generar respuestas que contienen información falsa  o distorsionada. Como chequeadores, es central para nosotros analizar la fiabilidad de estos modelos y establecer estrategias y mecanismos para asegurar que los productos que utilicen estas tecnologías sean confiables, y que su desarrollo se haga de manera ética y transparente.

Desde este equipo interdisciplinario formado por periodistas, investigadores, cientistas sociales, diseñadores y desarrolladores, investigaremos y evaluaremos múltiples herramientas y modelos de generación de texto, imagen, audio y de estructuración de datos. Evaluaremos la competencia de estos modelos en múltiples tareas, como la redacción de verificaciones bajo supervisión humana o la adaptación de contenido para redes, a través de diferentes criterios, como la fiabilidad, el costo y el tiempo ahorrado.

El resultado de estas evaluaciones y pruebas será una guía para que otras organizaciones puedan integrar estas herramientas en sus procesos de manera que les permita trabajar más rápido y mejor, y asegurarse a la vez que lo están haciendo de una manera segura y responsable.

Además, durante este proceso el equipo de Innovación estrenará su nuevo newsletter con una entrega mensual en la que incluiremos un resumen de nuestros avances. También publicaremos para cada tarea los resultados de nuestras pruebas y recomendaciones para usar estas herramientas para cada caso puntual.

 Nos ponemos en marcha. En los próximos meses nos embarcaremos en la siguiente fase de este proyecto con el propósito de que nuestros descubrimientos ayuden a que más organizaciones puedan aprovechar las nuevas tecnologías para continuar combatiendo la desinformación con más y mejores herramientas.

Participá. ¿Te interesa recibir novedades periódicas? Suscribite a la lista de distribución de nuestro newsletter de Innovación. 

Comentarios

  • Hugo Victor Gissara5 de junio de 2024 a las 12:09 pmEl problema de la información falsa, ustedes ko saben, es muy complejo. Las causas de esta problemática no son sólo en manifestaciones burdas y obvias mediante la obtención de datos más confiables, sino también por la interminable generación de noticias de noticias, los límites del lenguaje y las cuestiones interpretativas de texto e intención, tanto en la emisión original como en la del analista o chequeado. Supongo que una forma de reducir levemente toda esta problemática, es agregar un apartado de documentos relacionados y fuentes. Muchas gracias por la posibilidad de opinar.

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *