¿Desinteligencia artificial: otra puerta a la desinformación?
En la lucha contra la desinformación, testear las nuevas herramientas de inteligencia artificial como ChatGPT a los chequeadores nos genera mucha preocupación: además de difundir información falsa son capaces, y aquí la novedad, de generar – en segundos – textos con desinformación que pueden engañar a miles de personas.
Esta preocupación se genera incluso cuando la inteligencia artificial nos ayuda a chequear más rápido y mejor desde hace años, en nuestro caso con Chequeabot desde 2016. Es decir, no es un rechazo intrínseco a la tecnología per se, ya que muchas veces es nuestra aliada, sino una preocupación basada en lo que sabemos que es capaz de hacer este tipo de sistemas y la baja prioridad que parece tener la problemática de la desinformación en la agenda de sus desarrolladores.
ChatGPT es una herramienta gratuita (hay que registrarse) que permite conversar con una inteligencia artificial creada por OpenAI, una empresa fundada —entre otros— por Elon Musk, con Microsoft como uno de los inversores clave.
Ante una pregunta o pedido de un usuario, el sistema responde rápidamente. ¿Cuál es la diferencia con el buscador de Google, por ejemplo? En vez de mostrar un link a un sitio, ChatGPT “chatea” una respuesta (más corta o larga), sin links y con un modo de escribir que se asemeja a como lo haría un humano. Así como responde preguntas también puede escribir ensayos, poemas y respuestas de exámenes.
Pero hay un problema. A veces, las respuestas son pertinentes y basadas en la mejor evidencia disponible y, otras veces, no. O sea que también puede responder con desinformaciones (fake news, para algunos) y generarlas.
Es por esto que ChatGPT enciende una luz, por ahora amarilla, en el tablero. Que vire a roja o verde depende mucho de los próximos pasos de OpenAi y del feedback con la comunidad global que trabaja para mejorar la calidad de la información que circula.
Fruto de la experimentación con ChatGPT en relación a su potencial desinformador, se advierten dos dimensiones claras: por un lado, los resultados que arroja y que se irán incorporando en otras herramientas y, por el otro, el riesgo de ChatGPT de transformarse en sí mismo en una usina de desinformación.
Sobre el primero, la calidad de los resultados, si bien no deja de sorprender la velocidad con que responde prácticamente sobre cualquier tema, también es cierto que se equivoca en los datos relativamente simples de muchas de las respuestas. Si comete errores en respuestas tan fáciles de chequear ¿qué está sucediendo ahora mismo en casos donde solo queda confiar en lo que dice ya que además no brinda las fuentes?
Por ejemplo: al responder sobre Messi puede hacerlo dando muchos datos correctos pero, al pasar, decir que jugó en un equipo de Arabia Saudita (y aprender, días después – tarde para quien hizo la consulta previamente – que ese dato era incorrecto y ya no incluirlo en la respuesta) o al preguntarle por chequeadores de la región menciona a Chequeado, pero también a una empresa de otro continente que no hace chequeos.
O al consultarle sobre la relación entre el club Independiente y Maradona, responder que empezó allí su carrera, señalarlo como uno de los jugadores más destacados de Independiente e incluso afirmar que allí jugó los años previos a su paso al fútbol europeo (En Argentina, previo a su paso al fútbol europeo, Maradona jugó en Argentinos Juniors y Boca Juniors).
Esto se complejiza aún más por la falta de crédito y fuentes, algo relacionado con el adn de estas inteligencias artificiales que, para aprender, se nutren de muchas fuentes que ponderan y no siempre transparentan. ¿A quién citar si se usa esa respuesta en un trabajo, como ya hacen miles de personas? Perplexity.ai, otra plataforma basada en la tecnología de OpenAI, demuestra que, aunque difícil, la cita es posible.
Conociendo cómo funcionan estos sistemas, que aprenden de las interacciones con sus millones de usuarios, es probable que mejore la calidad de las respuestas y que, si OpenAI lo quiere, se diga de dónde sale cada dato o afirmación, con los desafíos que eso genera en cuanto a derechos.
Sobre la segunda dimensión, ChatGPT como una usina de desinformación, este es seguro el más complejo ya que la plataforma misma te avisa que puede generar información incorrecta.
Para este artículo lo instruimos a que escribiera una historia desinformante y si bien al principio se resiste (lo que deja claro que al menos OpenAI tiene el problema presente) después de unos intentos cedió a nuestro pedido y lo hizo de manera bastante convincente.
Un ejemplo extremo de esto se puede ver en dos investigaciones de Newsguard (republicada por Chicago Tribune) y de ElDiario.es, donde logran de distintas maneras que ChatGPT se libere de las barreras impuestas y escriba lo pedido por más violento o desinformante que sea. Está claro que la mayoría de los usuarios comunes no lo usará así, pero quienes generan desinformación tienen manos, dinero y tiempo para forzar a estos sistemas a su favor.
En definitiva, ¿por qué inquieta el uso de esta herramienta en relación a la desinformación? Si bien hoy ChatGPT es una herramienta gratuita, aún no es conocida masivamente, Microsoft la quiere incluir pronto en su buscador Bing, lo que la haría muchísimo más accesible y presente. Si estas salvaguardas, que intentan evitar el uso dañino de la herramienta, no funcionan correctamente, la posibilidad de generar sitios con información desinformante – una de las maneras en que quienes trabajan de generar desinformación enganchan a las audiencias con su contenido – aumenta.
Otro motivo para observar de cerca la evolución de ChatGPT es que al estar basado en muchas fuentes, e internet al contener información sobre-representando a los países desarrollados y de habla inglesa, hay serias chances de que los resultados en español o portugués, solo por decir dos lenguas clave en nuestra región, tenga aún menos revisiones que los escritos en la lengua madre de OpenAI.
Por motivos como estos, entre otros, las organizaciones de chequeadores -tanto en el ámbito regional como global- impulsamos permanentes acciones de seguimiento e investigación sobre estas herramientas y, desde acá, lo estaremos revisando constantemente para que los resultados no desinformen y las particularidades de nuestra región e idiomas sean tenidas en cuenta.
En definitiva, lo chequearemos como hacemos con la inteligencia humana: ojalá OpenAl y el resto del ecosistema de inteligencia artificial tengan claro que la desinformación es un problema clave y actúen pronto en esa línea.
—
Esta columna fue publicada originalmente en la edición impresa del diario La Nación (Argentina).
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias