Sesión de clase. Objetivo: mejorar la comprensión lectora y la expresión escrita; consolidar el uso de correctores ortográficos y gramaticales online; afianzar la destreza de instrumentos tecnológicos a la hora de acceder a la información, procesarla, almacenarla y compartirla; y adquirir unos conocimientos básicos sobre la etapa histórica denominada Edad Moderna. Tarea: responder a un cuestionario utilizando como fuente documental un archivo PDF creado exprofeso y compuesto por varios fragmentos sobre el periodo señalado que se han acondicionado, por su carácter divulgativo, al nivel competencial del alumnado. Procedimiento: cada discente realiza el ejercicio de manera individualizada delante de su ordenador; el docente supervisa las tareas que todos realizan desde su equipo gracias a un programa informático que facilita esa supervisión y control del trabajo que se hace en los dispositivos.
***
En mitad de la sesión, detecto en mi pantalla una anomalía: el alumno Equis está resolviendo una serie de preguntas con respuestas extensas. «No tiene sentido», me digo. La tarea no conlleva que las contestaciones sean largas. Observo su proceder y zanjo mi desconcierto: ha abierto una página de ChatGPT en español donde reproduce en un recuadro la cuestión que quiere ver resuelta y enseguida consigue lo que desea; lo copia y lo pega, en la ficha de la tarea, debajo de la interrogación correspondiente.
Dejo que repita este proceso un par de veces hasta que le llamo la atención. Siempre que voy a intervenir en un ordenador desde el que manejo, aviso: «Fulanito, estoy en tu equipo». Una cosa es ver lo que hacen; otra, entrar y operar en la tarea como si tuviera el dispositivo frente a mí y no en otra parte del aula. Él, con admirable reflejo, cierra enseguida la pestaña del navegador donde estaba disponible la “dañina” web (así toca que la califique en este momento). Sonrío por la reacción que ha tenido. «Culpabilidad. Percepción de que no es correcto lo que hacía», pienso al instante. Le muestro sobre la marcha cómo existe una opción en la aplicación que permite ver las páginas que se han visitado. Sé que no puede afirmar que ese enlace ya se hallaba alojado en la computadora desde antes de empezar la clase porque los dispositivos están configurados para que, al apagarse, se borren, entre muchas otras cosas, el historial de navegación y las “invasoras” cookies.
Me reconoce que ha consultado la web. Le digo que no pasa nada, que nos viene bien este “incidente” para mostrarle lo siguiente: las respuestas ajenas están, dentro de lo que cabe, bien redactadas y, en apariencia, aceptablemente documentadas; en cambio, las que él ha compuesto por sí mismo, las que ha realizado sin ayuda tecnológica, contienen errores ortográficos, problemas de cohesión y son más simples, menos elaboradas, más imprecisas. Se lo demuestro. En la misma ficha de la tarea esta diferencia se percibe con facilidad; en otras palabras: «se sabe a primera vista cuáles son las tuyas y cuáles son las que ha hecho la máquina», le digo. Y si no fuera así y en el mismo documento todas sus aportaciones fueran copiadas de ChatGPT, también sabría que no son de Equis porque, después de tantos meses de relación escolar, atesoro muchos testimonios sobre los errores que habitualmente comete cuando manuscribe en clase.
Reflexiono con él haciéndole ver que, en este caso concreto, si yo paso por alto la referida anomalía, estaré obligado a valorar lo que me entregue con una nota elevada; al menos, en aquellas preguntas donde la tecnología ha intervenido porque, en el fondo y en la forma, el nivel lingüístico y conceptual de estas contestaciones supera con creces el que posee el alumnado del grupo. Y si eso sucede, si doy por aceptables este tipo de respuestas, se corre el riesgo de que, en futuros cuestionarios, su única preocupación sea acceder a la web apuntada, hacerle llegar todos los interrogantes que yo hubiera formulado y esperar las soluciones que la IA le ofreciera. De esta manera, de un modo fácil y rápido obtendría calificaciones elevadas que, a la larga —extendido el asequible recurso al resto de las materias en las que está matriculado—, supondría la promoción de curso o la consecución de un título de un modo brillante o, al menos, rozando la excelencia, a tenor del nivel académico imperante. Mas un hecho quedaría demostrado: su mérito formativo no sería otro que el saber utilizar una herramienta que le permite mostrar unos conocimientos que no posee (cómo me acuerdo en esto de Quiz Show: El dilema, la fantástica película que Robert Redford dirigió en 1994). Le dije: «Si no tienes los conocimientos que demanda tu titulación porque los has cogido prestados de una máquina, ¿por qué un empleador no habría de “contratar” antes a un aparato que a ti? ¿Por qué no prescindir de ti —que posees derechos laborales que hay que respetar, que puedes caer enfermo y frenar la producción de la empresa, que no eres capaz de trabajar ocho horas diarias con la misma intensidad— y apostar por que sean los aparatos los que hagan la faena que, se supone, tú deberías saber hacer?».
Acepto que puede resultar exagerado (excesivo, desmedido…) lo que expongo si lo circunscribimos a la situación puntual que planteo —unas respuestas de un cuestionario obtenidas por IA—, pero creo que no se deben desatender las consecuencias de lo ocurrido si lo llevamos a una mayor escala: si la IA es capaz de remediar lo que los humanos deberíamos saber solucionar, ¿no ponemos en peligro a la larga (a la muy larga, quizás) el principal valor de nuestra especie: el uso de la inteligencia para resolver lo que nos inquieta (desde plantear la necesidad de un puente para atravesar un barranco hasta el modo de extirpar un tumor, pasando por el desarrollo novelístico de un argumento, la manera de conjuntar una orquesta en una partitura o el análisis de un periodo de la historia y sus efectos, por ejemplo)?
Equis suelta una genialidad: «Entonces, mi fallo fue no cometer fallos». Le respondí que, de algún modo, sí; que los errores eran los que en este momento le humanizaban porque provenían de la espontaneidad, de la creatividad (qué son las faltas de ortografía en muchos casos sino deformaciones fantasiosas de la escritura), de la prisa por atender un asunto antipático para obtener beneficios inmediatos (terminar enseguida la tarea consiguiendo los mejores resultados posibles).
Al acabar nuestra conversación —tras el pertinente «Salgo de tu equipo, sigue trabajando»—, una conclusión dubitativa me inquietó: ¿deberemos empezar a asustarnos con la IA cuando esta sea capaz de reproducir los yerros, las contradicciones, los patinazos tan propios de los humanos; cuando sepa hacer chistes, chismorrear y, de tanto en tanto, porque le viene en gana, porque se siente festiva, emitir sonidos de eructos o de pedorreos; cuando sepa cómo acompañarnos en la soledad, en los sentimientos, en todo aquello que nos vuelve emocionalmente vulnerables, como ocurre con la Samantha de Her (2013); cuando tome decisiones con el mismo nivel de autonomía que nosotros, sin preguntarnos, sin esperar a una orden, como sucede con HAL 9000 en 2001, una odisea espacial (1968); cuando nos eche en cara que hayamos decidido reemplazarla por otro sistema semejante porque quiere disfrutar de su vida igual que nosotros de la nuestra, como confiesa Roy Batty (Blade Runner, 1982)?
Si eso es así, si algún día esto pudiera llegar a suceder, cabe la posibilidad de que la humanidad pueda encontrarse en la terrible disyuntiva de no saber quién es quién, lo que la situaría en la antesala de la gran duda que jamás debería plantearse dentro de nuestra especie, que no es otra que la de dirimir quién nos conviene y de quién, por tanto, hemos de prescindir: ¿Humanos que se muestran como lo que son —humanos— o máquinas que actúan como humanos? ¿Necesitaremos en algún momento de nuestra evolución que aparezca un John Connor (Terminator, 1985)?