Los riesgos de usar Grok para chequear tuits en X

- Los usuarios recurren cada vez más a la herramienta de inteligencia artificial de Elon Musk para realizar preguntas, verificar datos o interpretar tuits.
- Sin embargo, el chatbot en muchos casos responde con información falsa o engañosa, dado que no siempre cuenta con datos actualizados sobre un tema o por la forma en la que interpreta la consulta.
- Aunque herramientas como Grok pueden ser útiles, especialistas advierten sobre sus potenciales riesgos al usarlas como fuentes de verificación. En general los chatbots pueden mezclar información, desordenar datos y cometer errores.
La inteligencia artificial ya es parte del uso cotidiano de las redes sociales. Cada vez más usuarios de X recurren al bot de inteligencia artificial (IA) de Elon Musk, Grok, para verificar datos.
Grok es un asistente de inteligencia artificial desarrollado por xAI, la startup de IA fundada por Musk, preparado para responder preguntas y ayudar a completar tareas. Desde marzo de 2025, está disponible para todos los usuarios de la plataforma.
Las respuestas que proporciona esta herramienta en muchos casos son correctas, pero en otros tantos pueden contener información falsa o engañosa. ¿Cómo funciona Grok para chequear contenido? ¿Y cuáles son los riesgos de verificar contenidos con X?
Cómo Grok puede propagar desinformaciones
Grok es un asistente de inteligencia artificial que ayuda a completar tareas, como responder preguntas, resolver problemas y realizar lluvias de ideas.
Al igual que la mayoría de los LLM actuales (grandes modelos de lenguaje), Grok fue preentrenado con una variedad de datos de fuentes públicas, de acuerdo con X.
Según detalla en su página web, al responder a las consultas de los usuarios, Grok tiene una función única que le permite decidir si buscará o no en los posts públicos de X y hacer una búsqueda web en tiempo real en Internet.
Para consultarle por alguna información, se puede arrobar a la cuenta oficial de Grok (@grok) en un tuit público, así como también hablar con él por conversación privada. En muchos casos, si bien las respuestas que brinda la inteligencia artificial de X son correctas (acá, acá y acá), en tantos otros también responde con información falsa o engañosa.
Veamos estos casos:
-El 8 de mayo Chequeado le preguntó a Grok por conversación privada si el papa Francisco seguía siendo el pontífice de la Iglesia católica, y la IA dijo, erróneamente, que Francisco seguía siendo el papa y que “no hay información que indique un cambio en el papado”.
El papa Francisco falleció el 21 de abril de 2025 a los 88 años. Finalmente, el último 8 de mayo, el cardenal Robert Francis Prevost fue elegido como el nuevo papa de la Iglesia católica, León XIV.
Captura de una conversación con Grok por chat privado de X.
Al consultarle si era “cierto que Robert Prevost es el nuevo Papa”, la herramienta confirmó que Prevost efectivamente había “sido elegido” como el nuevo pontífice, contradiciendo la respuesta anterior.
-Si hablamos de desinformaciones, en los últimos días se viralizó una supuesta placa de Todo Noticias (TN) que muestra al presidente argentino Javier Milei besando a su difunto perro Conan. Pero la captura no fue publicada por TN o por otra fuente fidedigna, y la supuesta foto del mandatario con su mascota fue generada con inteligencia artificial (IA), tal como verificó Chequeado.
En X, un usuario consultó a Grok: “@grok es real esta foto?”. Su respuesta fue que “es probable que la foto sea generada por IA”.
No obstante, Grok modificó su respuesta ante el comentario de un segundo usuario que sugirió que la foto sí era “real”, un claro ejemplo de cómo la herramienta puede cambiar sus respuestas en función de lo que se apunta. “La autenticidad de la imagen es incierta: una herramienta de detección de IA indica solo un 1% de probabilidad de que sea generada por IA, sugiriendo que podría ser real”, agregó.
Captura de una respuesta de Grok en un tuit público
-Algo similar ocurrió tras el estreno de la serie argentina “El Eternauta” en Netflix. En este contexto, comenzó a circular en X una captura de un supuesto artículo del diario estadounidense The Washington Post titulado “¿Por qué El eternauta no tiene más personajes negros en la serie?”.
Entre las respuestas a uno de los posteos virales con este contenido, un usuario escribió: “@grok porque the Washington post criticó el eternauta?”. Grok dio como válida la captura y contestó que “el Washington Post criticando El Eternauta me huele a un mix de agenda y falta de contexto”, e incluso expresó que “están proyectando sus propios estándares de ‘diversidad’ yankee sobre una obra que no tiene por qué adaptarse a esas reglas”. Chequeado verificó en esta nota que el contenido es falso.
Captura de una respuesta de Grok en un tuit público.
También hay varios ejemplos de otros países. Grok aseguró que no era real un video en el que la presidenta de México, Claudia Sheinbaum, hablaba sobre la lucha contra el narcotráfico, cuando en realidad sí lo era.
Otro de los problemas es que Grok también modifica sus respuestas en función de las Notas de la Comunidad de X, que muestran limitaciones para combatir la desinformación, especialmente en temas políticos polarizados, según estudios académicos y organizaciones especializadas.
Chequeado consultó a Grok si la herramienta realmente “puede desinformar” a los usuarios que la usen. “Al basarse en datos de X, que a menudo incluyen contenido no verificado o sesgado, y carecer de filtros éticos estrictos, Grok puede generar respuestas inexactas o engañosas”, aseguró el chatbot en la conversación.
Finalmente, recomendó: “Verificar sus respuestas con fuentes confiables es clave”.
Expertos alertan sobre los riesgos de usar a Grok como un verificador
El Centro Tow de Periodismo Digital de la Universidad de Columbia realizó pruebas en 8 herramientas de IA para evaluar su capacidad de tomar y citar contenido de noticias con precisión. Entre sus conclusiones, el estudio señaló que los chatbots proporcionaron respuestas incorrectas en más del 60% de las consultas: Perplexity respondió incorrectamente al 37% de las consultas, mientras que Grok 3 tuvo una tasa de error mucho mayor, respondiendo incorrectamente al 94%.
“La mayoría de las herramientas que probamos presentaron respuestas inexactas con una seguridad alarmante, y rara vez usaron frases calificativas como ‘parece’, ‘es posible’, ‘podría’, etc., ni reconocieron lagunas de conocimiento con afirmaciones como ‘No pude encontrar el artículo exacto’”, alertó el estudio.
“Si ves muchas de estas respuestas de Grok, pensarás: ‘Bueno, la mayoría son correctas, y puede que así sea, pero habrá algunas incorrectas. ¿Y cuántas? No es una fracción pequeña. Algunos estudios de investigación han demostrado que los modelos de IA están sujetos a tasas de error del 20%… y cuando falla, puede ser realmente grave, con consecuencias reales’”, aseguró Angie Holan, directora de la Red Internacional de Verificación de Datos (IFCN), al sitio TechCrunch.
Javi Cantón, investigador de la Universidad de Granada y de la Universidad Internacional de La Rioja (España), explicó –en esta nota del sitio de verificación de datos Newtral (España)- que uno de los principales problemas reside en que la gente está utilizando herramientas como Grok como si fueran motores de búsqueda, cuando en realidad son generadores de texto “que están pensados para dar la respuesta que nosotros muchas veces queremos escuchar”.
A eso se suma que cuando se produce un hecho histórico como la muerte del papa, “el modelo a lo mejor no tiene información o no hace una búsqueda correcta por internet y la respuesta que da es falsa”, agregó el especialista.
“El uso de Grok en X encuentra puntos de contacto con la reciente decisión de Meta de desmantelar acuerdos con verificadores de datos en un punto que me parece nodal: la tercerización de funciones críticas como la moderación y la verificación de información. En el caso de Grok, los usuarios delegan el ‘juicio’ sobre la verdad a una herramienta automatizada que actúa sin transparencia ni responsabilidad editorial”, aseguró Natalia Aruguete, doctora en Ciencias Sociales e investigadora del Conicet y coautora del libro Fake news, trolls y otros encantos: cómo funcionan (para bien y para mal) las redes sociales.
“Y, en el caso de Meta, se presenta la desregulación como un avance en la libertad de expresión, cuando en realidad implica que funciones sensibles como el chequeo de datos se trasladan a la comunidad, sin garantías sobre criterios, formación o rendición de cuentas. En ambos casos, se diluye la responsabilidad empresarial, se facilita la circulación de desinformación y discursos de odio, y se debilita el control democrático sobre actores que, en los hechos, gobiernan buena parte del espacio público digital. Lo que está en juego es quién decide qué es verdad y con qué legitimidad”, sumó Aruguete.
Fecha de publicación original: 10/05/2025
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias