IA y cerebro humano: qué se sabe (y qué no) sobre el impacto de usar ChatGPT

- Un estudio preliminar del MIT analizó el impacto del uso de ChatGPT en el cerebro.
- La investigación, basada en solo 18 participantes y sin revisión por pares, mostró menor conectividad neuronal cuanto mayor era la asistencia externa, aunque esto no implica que vuelva menos inteligentes a la personas como circuló en redes.
- Expertos señalan que el cerebro siempre se adapta al uso de nuevas herramientas y que la clave no es evitar la inteligencia artificial, sino repensar cómo se enseña y evalúa en contextos educativos.
El 75 % de quienes alguna vez usaron ChatGPT lo aplicaron en tareas laborales, y el 85 % cree que les permite ganar productividad por hora, según una encuesta de investigadores del Conicet y del Centro de Ciencia, Tecnología y Sociedad de la Universidad Maimónides. En efecto, los científicos ya se están preguntando sobre las posibles consecuencias de la incorporación de la inteligencia artificial (IA) generativa en la vida cotidiana.
Un estudio del prestigioso Instituto Tecnológico de Massachusetts (MIT) de los Estados Unidos, publicado en junio, analizó el impacto del uso de ChatGPT en el cerebro. En medios de comunicación y redes sociales circuló que la investigación concluyó que el chatbot “vuelve menos inteligentes a las personas”, “genera menos conexiones neuronales”, “vuelve al cerebro más perezoso”, entre otros supuestos efectos negativos.
Sin embargo, estos titulares son engañosos. Lo que observó el equipo del MIT es que las personas tenían patrones de conectividad neuronal significativamente diferentes según usaban ChatGPT, motores de búsqueda o su cerebro para resolver una tarea. Además, solo completaron los experimentos 18 personas. Y el paper no ha sido revisado por pares, instancia en la que otros científicos externos evalúan el estudio para confirmar la calidad de la evidencia.
Por lo cual, estos resultados preliminares deben ser tomados con mucha cautela.
El experimento del MIT
La investigación del MIT buscó determinar el costo cognitivo de usar un LLM (en español, modelo extenso de lenguaje) en la redacción de un ensayo. Para eso, se asignó a 54 participantes, de los cuales 18 llegaron al final de los experimentos, a tres grupos: grupo LLM (ChatGPT), grupo Motor de Búsqueda y grupo Solo Cerebro. Cada participante utilizó una herramienta específica (o ninguna) para escribir un ensayo.
En 3 sesiones hicieron la misma tarea grupal, pero en la cuarta les pidieron a los participantes del grupo LLM que no utilizaran el chatbot y a los del grupo Solo Cerebro que sí lo utilizaran. Los investigadores realizaron electroencefalografías (EEG) para registrar la actividad cerebral y entrevistaron a cada participante.
El análisis mostró que los grupos tenían patrones de conectividad neuronal significativamente diferentes, lo que refleja estrategias cognitivas divergentes. La conectividad cerebral se redujo según la cantidad de apoyo externo: el grupo Solo Cerebro exhibió las redes más fuertes y de mayor alcance; para el grupo Motor de Búsqueda el nivel fue intermedio; y con la asistencia de LLM las redes fueron más débiles.
No obstante, el trabajo no es capaz de demostrar que ChatGPT le haga un daño al cerebro. Como aclara la web de MIT: “Demostramos la urgencia de explorar una posible disminución en las habilidades de aprendizaje basándonos en los resultados preliminares de nuestro estudio”.
¿Usar ChatGPT nos hace menos inteligentes?
El investigador argentino Guillermo Cecchi, director de los grupos de Psiquiatría Computacional y Neuroimágenes de IBM Research, en Nueva York, Estados Unidos, aclaró a Chequeado que “todo lo que hacemos, y en particular el uso de herramientas relacionadas con nuestras capacidades cognitivas y de comunicación, tiene un enorme efecto en nuestro cerebro porque es plástico, todo lo que hace deja una traza, conexiones que se refuerzan, que se debilitan, etcétera”.
Por eso, en principio, propuso “no caer en el fatalismo de ‘nuestro cerebro está cambiando, qué problema’ porque el cerebro siempre cambia”.
Respecto al estudio del MIT, el físico de la Universidad Nacional de La Plata (UNLP) sostuvo que “aunque es un trabajo muy bien pensado y ejecutado, tiene un sesgo un tanto fatalista, típico de las respuestas a la emergencia de nuevas tecnologías”.
Y profundizó: “Históricamente vimos que las nuevas tecnologías suelen ser juzgadas en un principio, pero al mismo tiempo generan transformaciones tan profundas (por ejemplo, la imprenta, el automóvil, la radio, los medios sociales, etc) que requieren una reconfiguración de los parámetros de su evaluación. Sócrates, no sin razón, se oponía a la palabra escrita porque ‘reblandecía’ las mentes que podían, en su tiempo, memorizar las épicas completas de Homero”.
Desde la perspectiva del neurocientífico, una conclusión alternativa al estudio es que, en particular para fines educativos, el ejercicio de creación de ensayos debería ser radicalmente modificado o suplantado por actividades adecuadas a la nueva realidad. “Si la máquina lo puede hacer, ¿tiene sentido que lo haga una persona?”, cuestionó.
Se necesitan más estudios
Muhammad Muhammad Parvaz, director del Laboratorio Parvaz de Psicopatologías Motivacionales y Afectivas (MAP) en la Escuela Icahn de Medicina de Mount Sinai (Nueva York) y experto en EEG —el método utilizado para el estudio del MIT—, sostuvo que “las implicaciones del estudio para la educación son novedosas y significativas”. Sin embargo, en diálogo con Chequeado, consideró que la interpretación “se ve limitada por nuestro conocimiento actual de estos correlatos neuronales”.
De acuerdo con el científico, “este estudio es una contribución reflexiva y oportuna que integra con éxito datos conductuales y neuronales para explorar cuestiones emergentes sobre la colaboración entre humanos e IA. Como tal, allana el camino para un examen más profundo de los mecanismos neuronales y psicofisiológicos subyacentes, lo que podría convertirse en un área apasionante de investigación científica”.
Por otro lado, los docentes Vitomir Kovanović y Rebecca Marrone, del Centro para el Cambio y la Complejidad en el Aprendizaje (C3L) de la Universidad del Sur de Australia, opinaron en un artículo en The Conversation que los hallazgos se deben al diseño particular del estudio, debido a lo que llaman fenómeno de familiarización: a medida que los participantes repiten una tarea, se vuelven más eficientes y su estrategia cognitiva se adapta. Pero cuando al grupo que usó IA le tocó usar solo su cerebro, realizó la tarea una única vez y no logró igualar la experiencia del grupo que primero trabajó sin ayuda y luego usó la IA.
Saber cuándo, cómo y dónde usar la IA
Los docentes australianos comparan la situación actual con la de la década de 1970, cuando el uso de calculadoras se generalizó. Para regular su impacto, dicen, se elevó la vara: los estudiantes podían usar las calculadoras, pero debían dedicar su esfuerzo cognitivo a tareas más complejas. “Al igual que las calculadoras, la IA puede y debe ayudarnos a realizar tareas que antes eran imposibles y que aún requieren una dedicación significativa”, explicaron.
Y agregaron: “Saber cuándo, dónde y cómo usar la IA es clave para el éxito a largo plazo y el desarrollo de habilidades. Priorizar qué tareas se pueden delegar a una IA para reducir la carga cognitiva es tan importante como comprender cuáles requieren verdadera creatividad y pensamiento crítico”.
Para Cecchi, “lo importante es entender qué hace y qué no hace la herramienta, y la intención de quien la programó. Con los chatbots, algunos más que otros, la obsecuencia, el engaño de dar referencias que no existen y el posible uso de datos personales son riesgos muy concretos”.
Por eso, concluyó, el desafío en este momento es “no solo entender qué efectos tienen los modelos lingüísticos grandes, sino también cómo adaptar el proceso educativo a su presencia ineluctable en todos los aspectos de la vida de los estudiantes”.
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias