Hacer trampa con ChatGPT para escribir ensayos es una amenaza para todos
Pilita Clark
- T+
- T-
Pilita Clark
El otro día conocí a un académico británico que dijo algo sobre la inteligencia artificial (IA) que me dejó boquiabierta. La cantidad de estudiantes que utilizan herramientas de inteligencia artificial como ChatGPT para realizar trabajos es un problema mucho mayor de lo que se le ha comunicado al público, advirtió.
Las incidencias de trampa con IA en su institución eran tan generalizadas que un gran número de estudiantes habían sido expulsados por mala conducta académica, tanto que algunos cursos habían perdido la mayor parte del año de admisión. “He escuchado cifras similares en algunas universidades”, me dijo el académico.
“Los estudiantes que subcontratan su pensamiento a herramientas de inteligencia artificial representan un riesgo para futuros empleadores y más allá”.
Detectar los ensayos sospechosos no fue difícil, porque cuando les preguntaron a los estudiantes por qué habían incluido ciertos términos o fuentes de datos que no se habían mencionado en el curso, quedaron desconcertados. “Claramente nunca habían oído hablar de algunos de los términos que aparecen en sus ensayos”.
Pero la detección es sólo la mitad de la batalla. Lograr que los administradores aborden el problema puede resultar complicado, especialmente cuando los tramposos son estudiantes internacionales que pagan colegiaturas más altas que los locales. Debido a que las universidades dependen en gran medida de esas colegiaturas, algunos administradores tienden a pasar por alto los esfuerzos por exponer el problema. O, como dijo esta persona, “la denuncia de irregularidades pone en peligro la carrera”.
Aquí hay más en juego que la injusticia de que los tramposos obtengan ventaja sobre los estudiantes honestos. Consideremos la posibilidad de que graduados supuestamente expertos salgan al mundo y sean reclutados en organizaciones, ya sea un servicio de salud o un ejército, donde los coloquen en puestos para los que no están cualificados.
Entonces, ¿cuán amplio es el problema de las trampas?
El pánico por la transformación de ChatGPT en el entorno educativo despegó cuando se lanzó la herramienta en noviembre de 2022 y, desde entonces, la tecnología no ha hecho más que avanzar. Mientras escribo estas palabras, colegas del Financial Times (FT) informaron que OpenAI, que creó ChatGPT, y Meta están listos para lanzar modelos de IA mejorados capaces de razonar y planificar.
Pero el impacto exacto de la IA en las aulas no está claro.
En EEUU, investigadores de la Universidad de Stanford dijeron el año pasado que no parecía que las tasas de deshonestidad académica se hayan visto afectadas por la IA. Hasta el 70% de los estudiantes de secundaria han confesado durante mucho tiempo haber hecho alguna forma de trampa y casi un año después de la llegada de ChatGPT esa proporción no había cambiado.
En las universidades, las investigaciones muestran que la mitad de los estudiantes son usuarios habituales de IA generativa —no necesariamente para hacer trampa—, pero sólo alrededor del 12% la usa a diario.
Cuando se trata de la cantidad de ensayos de estudiantes escritos con la ayuda de IA, las tasas parecen relativamente estables, dice Turnitin, un grupo de software de detección de plagio que tiene una herramienta para verificar el uso de IA generativa.
Dice que los estudiantes han presentado más de 22 millones de artículos en los últimos 12 meses que muestran signos de ayuda de la IA, lo que representó el 11% del total que revisó. Más de 6 millones de artículos, o el 3% del total, contenían al menos el 80% de escritos de IA.
Es una gran cantidad de ensayos. Pero el porcentaje de escritura de IA es prácticamente el mismo que el que Turnitin encontró el año pasado cuando llevó a cabo una evaluación similar.
“Las tasas de uso de la IA se han mantenido estables”, afirma Chris Caren, director ejecutivo de Turnitin. Y como me dijo la semana pasada, el hecho de que estés usando ChatGPT no significa necesariamente que estés haciendo trampa.
“Algunos profesores permiten cierto nivel de asistencia de la IA al escribir un ensayo, pero también quieren que se cite adecuadamente”, dice. “La IA puede ser increíblemente útil para realizar investigaciones y generar ideas”.
Estoy segura de que esto es verdad. También es cierto que los profesores universitarios utilizan cada vez más la IA para ayudar a redactar planes de lecciones y conozco a algunos que la han probado para calificar ensayos, sin éxito.
Pero todavía me preocupa pensar que un número considerable de estudiantes esté utilizando herramientas como ChatGPT de una manera que sea potencialmente riesgosa para los empleadores y la sociedad en general.
Algunas universidades ya están aumentando las evaluaciones cara a cara para detectar y desalentar las trampas de la IA. Estoy segura de que esto continuará, pero también sería útil que animaran a los académicos a exponer el problema, en lugar de disuadirlos de intentar solucionarlo. Como me dijo el académico con el que hablé, el propósito de ir a la universidad es aprender a aprender. Se supone que estas instituciones te enseñan a pensar por ti mismo y evaluar la evidencia, no sólo a recitar hechos y cifras.
Cualquiera que subcontrate su pensamiento a una máquina será, en última instancia, el que más daño sufrirá.