Cuando ya no sabemos qué es real: la IA y el consumo de noticias

Imagen realizada con IA y supervisión humana
Las imágenes generadas por inteligencia artificial (IA) son cada vez más convincentes. Tan convincentes que hasta los más atentos tienen problemas para distinguir lo real de lo fabricado. Para los medios de comunicación, esto presenta un doble problema: si la gente deja de confiar en lo que ve porque ya no sabe qué es real y qué no, ¿seguirán confiando en lo que los medios muestran como evidencia? Y, en consecuencia, ¿seguirán consumiendo noticias?
Para responder a estas preguntas, un equipo de investigadores se asoció con uno de los diarios más importantes de Alemania, el Süddeutsche Zeitung (SZ), lo que les permitió analizar el comportamiento de sus lectores luego de que tomaran conciencia de lo difícil que es distinguir entre imágenes reales y generadas con IA. Tal como los investigadores esperaban, cuando los lectores se dieron cuenta de que no eran buenos detectando las imágenes artificiales, aumentó su preocupación por la desinformación, disminuyó su confianza en los contenidos que ven en las plataformas y en los medios de comunicación, pero al mismo tiempo, aumentaron su demanda de contenido de calidad.
¿Cómo midieron esto?
Los investigadores invitaron a aproximadamente 17.000 lectores del diario a participar en una encuesta. A un grupo le presentaron el desafío de identificar, entre pares de imágenes sobre temas de actualidad, cuáles eran reales y cuáles habían sido generadas con IA (grupo “desafío IA”). A otro grupo, usado como control, le mostraron únicamente imágenes reales y tenían que indicar en qué país habían sido tomadas.
Después, ambos grupos respondieron preguntas como: cuán preocupante les parecía la desinformación, en particular la facilidad con que se puede crearla; qué tan confiable les resultaba el contenido que ven en diferentes medios de comunicación (incluido el propio diario SZ) y en las plataformas (Instagram, LinkedIn, TikTok y X); y, por último, cuánto estarían dispuestos a pagar por una suscripción digital al diario
Además, unos 6.000 participantes aceptaron que se analizara su comportamiento real en el sitio del diario durante varias semanas. Así pudieron medir, entre otras cosas, la frecuencia de visitas al sitio y, en el caso de quienes estaban suscriptos al diario, si mantenían su suscripción o la cancelaban con el tiempo.
Pérdida de confianza pero más demanda por contenido de calidad
Los resultados indicaron que:
- Efectivamente, les fue mal detectando las imágenes generadas por IA.
- El grupo que pasó por el “desafío IA” aumentó su preocupación por la desinformación online en comparación con el grupo control.
- Tal como esperaban los investigadores, quienes tomaron conciencia de lo difícil que resulta distinguir entre imágenes reales y las generadas por IA disminuyeron la confianza general en los contenidos que veían tanto en plataformas como en medios, incluido el propio diario Süddeutsche Zeitung.
Sin embargo, a pesar de esta caída en la confianza, no redujeron lo que estarían dispuestos a pagar por una suscripción al diario.
Además, y acá viene el dato revelador: al evaluar el comportamiento online real de los lectores del diario, encontraron que quienes habían hecho el desafío IA visitaban el sitio web del diario con mucha más frecuencia: las visitas aumentaron aproximadamente un 2,5% en los primeros días después del experimento. Aunque el efecto se fue diluyendo con el tiempo, se mantuvo significativo durante más de dos semanas.
Otro dato importante, especialmente para el propio diario, fue el efecto a largo plazo: después de cinco meses, la retención de suscriptores era un 1,1% mayor en el grupo que había realizado el desafío respecto del grupo control, lo que representa aproximadamente un tercio menos de cancelaciones.
El valor de las fuentes confiables
Los investigadores interpretan que cuando las personas se dan cuenta de lo difícil que es distinguir información real de contenido fabricado, aumenta su necesidad de fuentes confiables que puedan hacer esa distinción por ellas.
Aunque la confianza general en los medios disminuye -incluso en aquellos que se consideran más confiables, como el propio SZ-, paradójicamente esto incrementa el valor que les otorgan a esas fuentes de mayor calidad. En un mundo saturado de información dudosa, tener un medio en el que relativamente se puede confiar se vuelve más valioso, no menos.
Esta dinámica podría aplicarse a otros contextos afectados por estas tecnologías emergentes. Por ejemplo, los grandes modelos de lenguaje pueden producir contenido convincente que suena experto, pero que resulta difícil de evaluar para quienes no son especialistas. Los resultados de este estudio sugieren que, en lugar de reemplazar a los expertos, este desarrollo podría aumentar la demanda de fuentes confiables capaces de evaluar el contenido generado por IA.
Agradecemos a Nicolás Ajzenman y su newsletter Esto no es economía por acercarnos a esta investigación.
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias