Los niños vuelven a la escuela. También lo hace ChatGPT

Los niños y ChatGPT vuelven a la escuela.

El invierno pasado, la presentación del chatbot alarmantemente sofisticado de OpenAI dejó a los educadores en una situación complicada. Se temía que la IA generativa permitiera el fraude y el plagio desenfrenados, e incluso hiciera que el inglés de la escuela secundaria quedara obsoleto. Las universidades debatieron actualizar las políticas de plagio. Algunos distritos escolares prohibieron por completo ChatGPT en sus redes. Ahora, un nuevo año escolar presenta nuevos desafíos y, para algunos, nuevas oportunidades.

A casi un año de la exageración de la IA generativa, la alarma inicial entre los educadores ha dado paso al pragmatismo. Muchos estudiantes se han dado cuenta de la tendencia de la tecnología a “alucinar” o fabricar información. David Banks, el canciller de las Escuelas Públicas de la Ciudad de Nueva York, escribió que el distrito ahora estaba “decidido a adoptar” la IA generativa, a pesar de haberla prohibido en las redes escolares el año pasado. Muchos profesores ahora se centran en tareas que requieren pensamiento crítico, utilizando la IA para generar nuevas conversaciones en el aula, y se muestran cautelosos con las herramientas que afirman poder detectar trampas de IA.

Las instituciones y los educadores ahora se encuentran en una posición incómoda no solo por lidiar con una tecnología que no pidieron, sino también por enfrentarse a algo que podría remodelar radicalmente sus trabajos y el mundo en el que crecerán sus estudiantes.

Lisa Parry, directora de una escuela K-12 y profesora de Lengua Inglesa y Composición de AP en Arlington, Dakota del Sur, dice que está “adoptando con cautela” la IA generativa este año escolar. Todavía le preocupa cómo ChatGPT, que no está bloqueado en las redes escolares, podría facilitar el fraude. Pero también destaca que el plagio siempre ha sido una preocupación para los profesores, por eso, cada año, hace que sus estudiantes escriban sus primeras tareas en clase para poder tener una idea de sus habilidades.

Este año, Parry planea que sus estudiantes de inglés utilicen ChatGPT como “un motor de búsqueda potenciado” para ayudar a generar ideas para ensayos. “ChatGPT tiene un gran poder para hacer el bien, y tiene el poder de socavar lo que estamos tratando de lograr aquí académicamente”, dice. “Pero no quiero tirar al bebé junto con el agua sucia”.

El pensamiento de Parry está en línea con la idea de que ChatGPT podría hacer por la escritura y la investigación lo que una calculadora hizo por las matemáticas: ayudar a los estudiantes en las partes más tediosas del trabajo y permitirles lograr más. Pero los educadores también están lidiando con la tecnología antes de que nadie realmente entienda qué trabajos o tareas podría automatizar, o antes de que haya consenso sobre cómo se podría utilizar de la mejor manera. “Nos enseñan diferentes tecnologías a medida que surgen”, dice Lalitha Vasudevan, profesora de tecnología y educación en Teachers College de la Universidad de Columbia. “Pero en realidad no tenemos idea de cómo se van a desarrollar”.

La carrera por detectar a los tramposos, con IA generativa o sin ella, continúa. Turnitin, el popular detector de plagio, ha desarrollado una herramienta de detección de IA que resalta qué partes de un texto pueden haber sido generadas por IA. Entre abril y julio, Turnitin revisó más de 65 millones de trabajos y descubrió que el 10,3 por ciento de esos trabajos contenían escritura generada por IA en potencialmente más del 20 por ciento de su contenido, con aproximadamente el 3,3 por ciento de los trabajos marcados como potencialmente 80 por ciento generados por IA. Pero tales sistemas no son infalibles: Turnitin dice que hay aproximadamente un 4 por ciento de falsos positivos en su detector para determinar si una oración fue escrita por IA.

Debido a esos falsos positivos, Turnitin también recomienda que los educadores conversen con los estudiantes en lugar de reprobarlos o acusarlos de hacer trampa. “Solo se supone que es información para que el educador decida qué hacer con ella”, dice Annie Chechitelli, directora de productos de Turnitin. “No es perfecta”.

Las limitaciones de la herramienta de Turnitin para detectar trabajos generados por IA reflejan las propias limitaciones de la IA generativa. Al igual que ChatGPT, que fue entrenado utilizando contenido extraído de la web, el sistema de Turnitin fue entrenado con trabajos enviados por estudiantes y escritos por IA. Esos trabajos incluyeron trabajos de estudiantes que aprenden inglés y de grupos subrepresentados, como estudiantes de colegios históricamente negros, en un intento por minimizar los sesgos. Existen preocupaciones de que las herramientas de detección de IA puedan ser más propensas a marcar erróneamente algunos estilos de escritura o vocabularios como generados por IA si están demasiado entrenadas en ensayos de estudiantes de un solo origen, como estudiantes blancos, hablantes nativos de inglés o de ingresos altos.

Pero aún existen riesgos de sesgo. Los estudiantes que aprenden inglés pueden tener más probabilidades de ser marcados; un estudio reciente encontró una tasa de falsos positivos del 61,3 por ciento al someter exámenes del Test de Inglés como Lengua Extranjera (TOEFL) a siete detectores de IA diferentes. El detector de Turnitin no se utilizó en el estudio. Los errores pueden ocurrir en parte porque los estudiantes de inglés y la IA tienen algo en común: ambos utilizan oraciones menos complejas y vocabulario menos sofisticado. Los detectores “realmente no funcionan muy bien”, dice James Zou, profesor de ciencias de la computación y ciencias de datos biomédicos en la Universidad de Stanford, quien trabajó en la investigación. “Pueden llevar a acusaciones peligrosas contra los estudiantes”.

“¿Esto es algo que ocultamos debajo de la alfombra, o vamos a enfrentarlo?”

Como resultado, algunas escuelas están resistiendo las herramientas que buscan detectar el trabajo generado por IA. El Centro de Enseñanza de la Universidad de Pittsburgh recientemente declaró que no respalda ninguna herramienta de detección de IA debido a su falta de confiabilidad, y desactivó la herramienta de detección de IA en Turnitin. La Universidad de Vanderbilt también anunció en agosto que desactivaría el detector de IA.

Incluso OpenAI, el creador de ChatGPT, ha decidido que no puede determinar de manera efectiva si un texto fue escrito por su chatbot o no. En julio, la compañía cerró una herramienta llamada AI Classifier, lanzada solo unos meses antes en enero, citando una baja tasa de precisión al determinar el origen del texto. En ese momento, OpenAI declaró que continuaba investigando una mejor manera de detectar la IA en el lenguaje. La compañía se negó a hacer más comentarios sobre la falta de precisión de la herramienta o sobre sus planes futuros.

Con los sistemas de IA sin estar a la altura del trabajo, es probable que algunos educadores utilicen otros medios para evitar el fraude. La supervisión en vivo, donde un observador vigila a alguien mientras realiza un examen o una tarea a través de una cámara web, se ha vuelto muy popular durante la pandemia y no ha desaparecido; el software de monitoreo, que rastrea lo que los estudiantes hacen en sus dispositivos, también se sigue utilizando. Sin embargo, ambos plantean importantes preocupaciones de privacidad.

La IA generativa impresiona con su capacidad para regurgitar Internet, pero no es la mejor pensadora crítica. Algunos profesores diseñan planes de lecciones teniendo esto en cuenta. Los educadores pueden intentar dar sus tareas a un chatbot y ver qué se genera, dice Emily Isaacs, directora ejecutiva de la Oficina de Excelencia Docente de la Universidad Estatal de Montclair en Nueva Jersey. Si un chatbot puede generar fácilmente un trabajo decente, podría significar que la tarea necesita un ajuste.

Ese juego del gato y el ratón no es algo nuevo. Isaacs dice que el desafío planteado por la IA generativa es similar a copiar de libros o de Internet. La tarea para los educadores, dice ella, es persuadir a los estudiantes de que “aprender vale la pena”.

David Joyner, profesor en el Instituto de Tecnología de Georgia, anima a sus estudiantes a ver la IA como una herramienta de aprendizaje, no como un reemplazo del aprendizaje. En mayo, Joyner, que enseña en el College of Computing, añadió una política de chatbot de IA a su programa de estudios.

En un hilo en X, anteriormente conocida como Twitter, describiendo el lenguaje de su política, compara el uso de un chatbot de IA con trabajar con un compañero: “Pueden hablar sobre sus ideas y trabajar con otras personas, tanto dentro como fuera de la clase, así como con asistentes basados en IA”, escribió. Sin embargo, al igual que al interactuar con un compañero de clase, el trabajo presentado aún tiene que ser propio del estudiante. “Los estudiantes necesitarán saber cómo usar este tipo de cosas”, dice Joyner. Entonces depende de él establecer tareas que sean “duraderas” contra el fraude asistido por IA, pero también guiar a sus estudiantes para que utilicen la IA de manera efectiva.

Los profesores de estudiantes de secundaria también sienten la necesidad de preparar a sus estudiantes para un mundo cada vez más moldeado por la IA. Este año, Theresa Robertson, profesora STEM en una escuela pública en un suburbio de Kansas City, Missouri, guiará a sus estudiantes de sexto grado a través de conversaciones sobre qué es la IA y cómo podría cambiar la forma en que trabajan y viven. “En algún momento, tienes que decidir: ¿Es esto algo que ocultamos debajo de la alfombra o vamos a enfrentarlo? ¿Cómo exponemos a los niños a esto y trabajamos en su aspecto ético, y realmente lo entienden?”, dice.

Aún no existe un consenso o una “mejor práctica” para enseñar en un mundo post-ChatGPT. En Estados Unidos, la guía para los profesores es fragmentada. Si bien el Departamento de Educación de Estados Unidos publicó un informe con recomendaciones sobre IA en la enseñanza y el aprendizaje, los distritos escolares decidirán en última instancia si los estudiantes pueden acceder a ChatGPT en las aulas este año. Como resultado, los distritos escolares más grandes de Estados Unidos están tomando posturas muy diferentes: el Distrito Escolar Unificado de Los Ángeles bloqueó ChatGPT el invierno pasado y no ha cambiado su política. Pero en Chicago y Nueva York, las escuelas públicas actualmente no bloquean el acceso a ChatGPT.

Los profesores también siguen recuperándose del último gran evento que trastornó la educación: la pandemia de Covid-19. Jeromie Whalen, profesor de comunicaciones y producción mediática de secundaria y estudiante de doctorado en la Universidad de Massachusetts Amherst, quien estudia las experiencias de los profesores de K-12 al usar tecnología, dice que muchos educadores están cautelosos con ChatGPT. “Todavía nos estamos recuperando del aprendizaje remoto de emergencia. Todavía estamos abordando esas brechas de aprendizaje”, dice Whalen. Para los profesores agotados, incorporar ChatGPT en la planificación de lecciones es menos una oportunidad emocionante y más una tarea en una interminable lista de tareas por hacer.

Aun así, hay un peligro al prohibir ChatGPT por completo. Noemi Waight, profesora asociada de educación científica en la Universidad de Buffalo, estudia cómo los maestros de ciencias de K-12 utilizan la tecnología. Ella señala que, si bien esta herramienta pone una responsabilidad adicional en los maestros, prohibir ChatGPT en las escuelas públicas niega a los estudiantes la oportunidad de aprender de la tecnología. Los estudiantes de bajos ingresos y los estudiantes de color, que dependen de manera desproporcionada de dispositivos y acceso a internet proporcionados por la escuela, serían los más perjudicados, profundizando la brecha digital. “Tendremos que ser muy vigilantes acerca del aspecto equitativo y orientado a la justicia de la IA”, dice ella.

Para otros maestros, la IA generativa está desbloqueando nuevas conversaciones. Bill Selak, director de tecnología en la Escuela Hillbrook en Los Gatos, California, comenzó a usar ChatGPT para generar ideas para Midjourney, un generador de imágenes de IA, después del tiroteo masivo en la Escuela Covenant en Nashville en marzo de 2023. Selak dice que no es un ilustrador natural y buscaba una forma de procesar su dolor por el tiroteo en la escuela. Midjourney le proporcionó una imagen que le ayudó a canalizar eso, y decidió llevar la idea a dos clases de quinto grado en la escuela donde trabaja.

Las dos clases eligieron un tema importante: el racismo en Estados Unidos y el cambio climático. Selak dice que trabajó con cada clase para generar una idea con ChatGPT sobre los temas, y luego las alimentó a Midjourney y refinó los resultados. Midjourney les dio a los estudiantes tres caras de diversos colores para la idea sobre racismo, y otra imagen que mostraba tres escenas al aire libre diferentes con casas y chimeneas, conectadas por una carretera. Los estudiantes luego discutieron el simbolismo de cada imagen.

La IA generativa permitió a los estudiantes procesar y discutir estas ideas grandes y emocionales de formas en las que una tarea de ensayo tal vez no hubiera permitido, dice Selak. “Fue una oportunidad para que se involucraran de una manera que no es típica en estas conversaciones importantes”, dice Selak. “Realmente sentí que amplificó la creatividad humana de una manera que no esperaba.”