Skip to content

IA y desinformación: cómo el contenido falso se recicla y termina circulando como fuente “confiable”

Si tenés sólo unos segundos, leé estas líneas:
  • La IA generativa puede crear textos coherentes con información falsa que luego circula como confiable y se reutiliza para entrenar nuevos modelos, generando un círculo vicioso de desinformación.
  • Un estudio reveló que 3 de cada 10 respuestas de chatbots contienen afirmaciones incorrectas. Casos en Argentina incluyen funcionarios judiciales y medios que publicaron información falsa.
  • Especialistas advierten que los modelos priorizan generar respuestas sobre admitir desconocimiento y recomiendan siempre verificar la información que proporcionan con fuentes confiables.

La inteligencia artificial (IA) puede sonar convincente, citar fuentes y construir relatos coherentes incluso cuando lo que afirma es completamente falso. Los modelos de IA predicen la siguiente palabra según patrones aprendidos durante su entrenamiento, lo que puede resultar en contenido verosímil pero no siempre veraz, lo que se conoce como “alucinaciones”.

El problema se agrava cuando esos textos con errores -desde libros hasta personas que no existen en la realidad- se publican, circulan como información confiable y luego son reutilizados como insumo para entrenar a los modelos o citados como fuente legítima por la propia IA. Así se forma un círculo de desinformación en el que la IA inventa, los humanos validan y las máquinas vuelven a reutilizar esos contenidos.

Cuando un error de la IA se valida como fuente chequeada

Existen cientos de casos en los que la IA inventa citas falsas, libros escritos íntegramente con esta tecnología o, incluso, fallos que no existen en escritos judiciales.

Sin ir más lejos, el presidente del Tribunal Fiscal de la Nación, Miguel Nathan Licht, fue denunciado ante el Consejo de la Magistratura por publicar un libro con citas falsas hechas con IA. Ante la polémica, Nathan Licht habló públicamente sobre el tema y dijo: “En determinadas ocasiones la desprolijidad, el apuro y hasta alguna intervención poco feliz de la IA pudieron jugarme una mala pasada”.

Lo curioso es que él mismo había escrito tiempo atrás una columna de opinión donde reconocía que la IA podía ser una aliada invaluable en la justicia “cuando se utiliza de manera ética y responsable”.

Los errores con IA también llegaron a los medios. El 7 de diciembre, el diario La Nación publicó un artículo titulado “Conocimiento argentino: 5 centros de investigación de prestigio internacional” en el que figuraba el especialista Roberto Ronda. Usuarios en X señalaron que el especialista no existe, y que el propio ChatGPT cita la nota como fuente.

Tras la polémica, en la nota se aclaró: “(*) En el artículo original figuró por un error humano de la autora Roberto Ronda, donde debió decir Daniel Esparza. Alicia Caballero aclara que el artículo no fue escrito con IA”.

A nivel internacional, existen decenas de ejemplos más. Arve Hjalmar Holmen, un noruego que se describe a sí mismo como “una persona normal”, presentó una demanda contra OpenAI después de que ChatGPT asegurara falsamente que asesinó a sus 2 hijos.

3 de cada 10 respuestas de los chatbots contiene afirmaciones incorrectas, según un estudio que analizó los 11 principales modelos y que se encuentra en un informe de NewsGuard de abril de 2025.

El círculo vicioso de la desinformación

Desde la llegada de los sistemas de IA generativa se sabe que estos modelos no verifican, sino que predicen texto. Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) generan lenguaje, no conocimiento. Predicen la siguiente palabra según patrones aprendidos durante su entrenamiento, lo que puede resultar en contenido verosímil pero no siempre veraz, lo que se conoce como “alucinaciones”.

Según el prompt -es decir, la indicación de texto- y su entrenamiento, los grandes modelos de lenguaje construyen sus respuestas a partir de predecir la siguiente palabra plausible. Cuando no tienen información sobre el tema o malentienden nuestra instrucción, se “inventan”, por ejemplo, hechos, citas, diagnósticos y análisis.

Las “alucinaciones” pueden provocar desinformación si los usuarios no contrastan con fuentes fiables las cifras, citas, diagnósticos y hechos incluidos en las respuestas de una IA. Incluso, pueden producir problemas legales y éticos si, por ejemplo, generan respuestas erróneas sobre personas, empresas o instituciones que pueden derivar en problemas legales.

“Ese problema es grave en múltiples niveles, pero uno muy serio es cuando ese tipo de alucinaciones son incorporadas a publicaciones que los modelos y las personas en general consideran fiables”, explicó a Chequeado Beatriz Busaniche, magíster en Propiedad Intelectual y presidenta de la Fundación Vía Libre.

Y agregó: “Ese tipo de información falsa va a servir para alimentar no sólo otros modelos, también se puede colar en proyectos como Wikipedia, que muchas veces usan este tipo de medios como fuente de referencia y luego es la propia Wikipedia una de las fuentes más usadas para entrenar IAs”.

Para Luciana Ferrer, investigadora independiente del Instituto de Ciencias de la Computación de la Universidad de Buenos Aires (UBA) y del Conicet, un fenómeno que se está estudiando es que los modelos parecen preferir generar una respuesta a confesar que no saben. “Priorizan ser útiles para el usuario, a ser honestos. Entonces, si no saben la respuesta, tienden a inventar una que suene factible”, explicó a este medio.

Algunos divulgadores ya están pronosticando el fin del entusiasmo por la IA generativa y hablan de un inminente y catastrófico “colapso del modelo”.

Investigadores de la Universidad Johannes Gutenberg de Mainz, Alemania, descubrieron que, sin datos humanos de alta calidad, los sistemas de IA entrenados con datos generados por esa tecnología se vuelven cada vez más ineficaces a medida que cada modelo aprende del anterior.

Además, algunas estimaciones indican que el conjunto de datos de texto generados por humanos podría agotarse en 2026, según explica Aarón J. Snoswell, investigador en Responsabilidad de IA de la Universidad Tecnológica de Queensland, Australia, en una nota de The Conversation.

Las recomendaciones de los especialistas

Por todo esto, los especialistas señalan que se debe dudar y mantener una mirada crítica ante los resultados que nos arrojan los chatbots. También, chequear siempre las fuentes de las respuestas de la IA.

“Si se confía en un sistema técnico como la IA sin la suficiente mirada crítica, los riesgos de reproducir sesgos, violencia, falsedades e información degradada son reales y ya están entre nosotros. Y eso tiene consecuencias no sólo en los modelos, sino en las sociedades mismas”, recomendó Busaniche.

“Mi consejo es siempre siempre dudar de las respuestas de la IA, nunca confiarse por la forma correcta con que están expresadas”, coincidió Ferrer.

 

Temas

Comentarios

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *