Diego Marin solía trabajar hasta altas horas de la noche al final de cada trimestre enviando las notas y comentarios de sus setenta alumnos de matemáticas de octavo curso en un colegio público de Chicago. Ya no. Ahora tiene un asistente virtual, ChatGPT, que reduce a una hora el tiempo que dedica a los comentarios de los boletines de notas, al plasmar rápidamente sus comentarios individualizados sobre cada alumno en una prosa fluida y limpia.

«Como profesores, parece que nos falta tiempo para todo», dice Marin. «He tenido algunas noches en las que me he quedado hasta medianoche enviando comentarios». También utiliza el chatbot gratuito de inteligencia artificial para ayudar a redactar correos electrónicos a los padres, completar Programas Educativos Individualizados para algunos estudiantes (como los que tienen problemas de aprendizaje) e incluso como herramienta de enseñanza.

Es cierto que Marin, de treinta años, es un apasionado de las redes sociales y la tecnología punta: tiene 1,4 millones de seguidores en TikTok. Pero su adopción de la IA no es inusual entre los profesores. A pesar de los temores inmediatos que surgieron tras la publicación de ChatGPT el pasado mes de noviembre de que el servicio pudiera poner patas arriba la educación al facilitar las trampas, parece que hay más profesores que lo utilizan en su beneficio que los que se preocupan por ese riesgo.

En una encuesta realizada en febrero a mil profesores de primaria a secundaria de todo el país, el 51% afirmó haber utilizado ChatGPT, el 40% de ellos semanalmente y el 10% a diario. (ChatGPT es gratuito, siempre que los usuarios creen una cuenta con OpenAI. Para acceder a la última versión del bot, construida sobre una versión más avanzada de IA –GPT-4, en lugar de GPT-3.5–, los usuarios deben pagar veinte dólares al mes por una suscripción a ChatGPT Plus).

Alrededor de un tercio de los profesores que participaron en la encuesta, encargada por la Walton Family Foundation, afirmaron utilizar ChatGPT para planificar las clases y aportar ideas creativas.

Los profesores de secundaria y bachillerato son más propensos a utilizar la IA que los de cursos inferiores. El 22% afirma utilizarla para comunicarse con padres, alumnos y colegas. Es fácil ver el atractivo de la herramienta, sobre todo para las tareas fuera del aula: una encuesta de EdWeek de 2022 reveló que el profesor típico trabaja 54 horas a la semana, cinco de las cuales las dedica a la planificación y la preparación, tres al trabajo administrativo y dos a la comunicación con los padres.

De los profesores que han utilizado ChapGPT, el 88% afirma que está teniendo un impacto positivo en la educación. Incluso los profesores que no lo han probado son más propensos a decir que no ha tenido ninguna repercusión que a decir que ha tenido una repercusión negativa: del 44% al 10%, respectivamente. Pero sólo el 9% de los no usuarios atribuyen un impacto positivo a la herramienta.

Además, sólo uno de cada diez profesores afirma haber sorprendido a un alumno utilizando el chatbot sin su permiso. No está claro si esto se debe a que las trampas son poco frecuentes o a que los profesores no perciben las señales de los estudiantes que tienden a hacer trampas (o, más caritativamente, a tomar atajos) utilizando ChatGPT. Pero, en general, los alumnos han tardado más que los profesores en adoptar la herramienta, según una encuesta realizada en febrero a mil estudiantes de entre 12 y 17 años y encargada también por la fundación, financiada por miembros de la multimillonaria familia Walton. Sólo un tercio de los estudiantes encuestados afirmó haber probado ChatGPT, y los más jóvenes de la muestra declararon haberla utilizado más que los mayores.

No todos los sistemas escolares han adoptado la herramienta de IA. En enero, el departamento de educación de la ciudad de Nueva York, que supervisa el mayor distrito escolar del país, con más de un millón de alumnos, bloqueó el uso de ChatGPT tanto a alumnos como a profesores, alegando preocupaciones sobre la seguridad, la precisión y las repercusiones negativas en el aprendizaje de los alumnos. El Distrito Escolar Unificado de Los Ángeles, las Escuelas Públicas de Seattle, las Escuelas Públicas del Condado de Fairfax, en Virginia, y las escuelas del Condado de Montgomery, en Alabama, también han bloqueado el acceso a la IA.

Además, otra encuesta más pequeña muestra más escepticismo entre los profesores, al menos entre los que trabajan en centros privados. La Asociación Nacional de Colegios Independientes (una asociación de colegios privados) encuestó recientemente a unos 200 profesores de sus colegios miembros y descubrió que el 37% de ellos pensaba que la IA en los colegios era un avance negativo, frente a sólo el 33% que decía que era positivo. Otro 30% opinaba que era neutra.

Pero también algunos profesores de centros privados están a la vanguardia de la experimentación con el chatbot. La Phillips Academy Andover de Massachusetts, una de las escuelas universitarias más elegantes del país, no tiene ninguna política general sobre el uso de ChatGPT. «Andover es una escuela privada muy grande, y tenemos muchos profesores entusiasmados con esto, pero hay muchos otros que están muy nerviosos», dice Nick Zufelt, profesor de Informática y Matemáticas.

Zufelt pertenece a la categoría de los entusiasmados. Primero presentó ChatGPT a sus alumnos como material de estudio. «Mantenía conversaciones con mis alumnos sobre lo que hacía y por qué hacía lo que hacía», explica Zufelt.

Ahora está empezando a utilizarlo como herramienta en un nuevo seminario de informática que imparte, en el que participan tanto estudiantes que nunca han escrito una línea de código como otros con varios años de experiencia en programación. Zufelt está permitiendo a los estudiantes que ChatGPT escriba un primer borrador del código en el que están trabajando. «Me interesa más que los estudiantes acaben entendiendo el código que que sean capaces de escribirlo desde los primeros principios», explica. «Aprender a pensar como un programador es mucho más difícil que aprender a programar».

Patrick Powers, profesor de inglés en la Navo Middle School de Denton (Texas), también ha introducido ChatGPT de forma proactiva entre los alumnos; les ha animado a utilizarlo para practicar en tareas de debate, desarrollar plantillas de propuestas de negocio para una simulación de pitching parecida a la de Shark Tank y recopilar información sobre personajes históricos. «Los estudiantes aprecian que sea una herramienta interactiva en lugar de utilizar Google o el plan de clase», dice Powers. «Están más comprometidos con la lección y el contenido en sí». También destaca la redacción limpia de ChatGPT como un «buen ejemplo de trabajo» del que pueden aprender sus alumnos de octavo curso.

Al igual que Marin, Powers considera que la redacción de ChatGPT es lo suficientemente sólida como para utilizarla cuando se pone en contacto con las familias y afirma que le permite aumentar la frecuencia de esas comunicaciones, incluso ahorrando horas de redacción de correos electrónicos a la semana. En lugar de ser reactivo y decir: «Oye, Johnny ha tenido un mal día en clase», dice Powers, ahora utiliza el chatbot para redactar correos electrónicos regulares a los padres sobre lo que está pasando en clase y cómo los estudiantes están teniendo éxito.

Hacer trampas en las redacciones ha sido una de las mayores preocupaciones de los educadores, pero a Powers no le preocupa demasiado. «Conocía bien la voz de mis alumnos, así que sabía qué tipo de trabajo esperar de ellos», dice Powers. «Y antes de introducirlo, envié una carta a los padres informándoles de las expectativas en el aula y de cómo esta herramienta podría ayudarnos a aprender mayores contenidos de una forma innovadora». (Para quien se lo pregunte, redactó la carta con su propia voz, sin ChatGPT). Dicho esto, Powers sí cree que sería útil un programa que detectara los trabajos escritos con IA. (GPTZero es hasta ahora el servicio más conocido que puede identificar el texto generado por ChatGPT).

Mientras los profesores experimentan por su cuenta, los proveedores de tecnología educativa (al igual que los de otros sectores) se apresuran a crear servicios basados en GPT-4. Khan Academy, una organización de aprendizaje online sin ánimo de lucro, presentó una versión beta cerrada de su nuevo tutor de inteligencia artificial, Khanmigo, a principios de este mes. Mientras que los estudiantes pueden utilizar la versión anterior de ChatGPT para escribir redacciones o resolver problemas por ellos, Khanmigo actuará sólo como tutor, dice Sal Khan, fundador y CEO de la operación que lleva su nombre.

«Si pudieras ir a dos tutores distintos, y uno te dijera: ‘Dame tus deberes, yo los haré por ti. Toma, entrega esto’, y el otro tutor dijera: ‘Vale, vamos a pensarlo juntos. ¿Cómo lo enfocarías tú? El segundo tutor será mucho mejor para el estudiante», afirma Khan. Además, Khanmigo no se limita a dar la respuesta a los alumnos, aunque la pidan.

Khanmigo también es mejor en matemáticas que la versión gratuita de ChatGPT. Una de las limitaciones bien conocidas de esa versión gratuita construida sobre GPT-3.5 es que muy a menudo da respuestas incorrectas a problemas matemáticos básicos, aunque explique con precisión los conceptos que hay detrás de la solución. Como Khanmigo está construido utilizando GPT-4, sus habilidades matemáticas han mejorado mucho.

Marin ha sido testigo ocasional de los fallos matemáticos de GPT-3.5 durante la clase y ahora los utiliza como una oportunidad de aprendizaje. «Cuando presenté ChatGPT a mis alumnos… teníamos ChatGPT abierto en el proyector y estaba repasando una secuencia de cómo resolver un sistema y, de hecho, dio una respuesta incorrecta», dice Marin. «Por un momento pensé que mis hijos me estaban tomando el pelo para ser sinceros, porque eso es lo que les gusta hacer, pero me dijeron: ‘No, señor Marin, nos está diciendo que esta es la respuesta, pero no lo es’. Así que volvimos atrás y encontramos un error». Ahora, pide habitualmente a ChatGPT que resuelva los problemas de forma incorrecta y pide a los alumnos que señalen dónde se equivocó el bot y por qué.

Los profesores interesados en probar Khanmigo pueden inscribirse en una lista de espera y, una vez seleccionados, se les pide que donen veinte dólares al mes para utilizar el servicio. El funcionamiento de Khanmigo es caro: a Khan Academy le cuesta unos 0,05 dólares por cada 600-700 palabras que genera Khanmigo, y Khan prevé que el funcionamiento de la IA costará entre diez y quince dólares al mes por estudiante. La organización sin ánimo de lucro ha gastado millones en construir Khanmigo y espera conseguir apoyo filantrópico adicional para el proyecto.

«Ahora mismo no es barato utilizar este material», afirma Khan. «La razón por la que estamos avanzando tan agresivamente en esto, pero de forma segura, es que creemos que esos costes van a bajar drásticamente. Y por eso vamos a hacerlo mucho más accesible en los próximos meses».

Periodistas, blogueros y otros usuarios han revelado lo fácil que puede ser sortear las barreras de seguridad de GPT. Un columnista de tecnología del NewYork Times publicó una inquietante conversación con el chatbot Bing de Microsoft –también creado con GPT-4– en la que se veía a la IA, que se hacía llamar Sydney, fantaseando con piratear ordenadores, difundir información errónea y hacer daño a los humanos, a pesar de las barreras que se supone que impiden a Bing hablar de esos temas. (Desde entonces se han añadido barreras adicionales).

Khan es muy consciente de ello y ha incorporado medidas de seguridad adicionales a Khanmigo para evitar que los estudiantes se desvíen hacia conversaciones cuestionables y no educativas con el chatbot. Todos los chats de Khanmigo se registran, y si un estudiante se topa con una de las barreras de seguridad de Khanmigo, se notifica a los profesores.

ChatGPT también tiene tendencia a inventarse cosas, llamadas alucinaciones en el lenguaje de la IA. Joe Welch, profesor de Historia en la North Hills Middle School de Pittsburgh, lo comprobó de primera mano cuando buscaba información específica sobre un tema concreto.

Un alumno que trabajaba en un informe le contó que había encontrado información contradictoria en distintas fuentes de datos sobre el alcance de los daños y las víctimas causados por una serie de tornados que azotaron el oeste de Pensilvania en 1985. «Pedí a ChatGPT una tabla de víctimas, ciudades, hora del tornado y valor monetario de los daños, y la tabla me devolvió cifras extremadamente inexactas», dice Welch. En otras palabras, mientras un estudiante de secundaria reconocía que las cifras que estaba encontrando eran contradictorias, el chatbot no admitía tal incertidumbre y producía una tabla definitiva (pero errónea).

A pesar de ello, ChatGPT ha ahorrado a Welch toneladas de tiempo. Utiliza el chatbot, entre otras cosas, para crear tablas para las guías de estudio de los alumnos, lo que antes le habría llevado al menos una hora de preparación.

«Me ayuda a realizar un montón de tareas que antes me habrían resultado arduas», afirma.