El chatbot de inteligencia artificial ChatGPT puede, entre otras cosas, generar ensayos y escribir código de computadora. Desde que se lanzó al público para su evaluación a fines del año pasado, ha generado preocupaciones sobre los estudiantes que usan ChatGPT para completar su tarea y llevó a algunas escuelas públicas secundarias a prohibirlo y a los profesores universitarios a cambiar sus asignaciones de cursos.
Ted Underwood es profesor de inglés y de ciencias de la información y decano asociado de asuntos académicos en la Facultad de Ciencias de la Información. Recientemente comentó en Inside Higher Ed sobre cómo ver el lugar de la tecnología en la educación superior. Habló con la editora de artes y humanidades del News Bureau, Jodi Heckel.
¿Qué es ChatGPT y en qué se diferencia de las versiones anteriores de chatbots?
La discusión tiende a centrarse en ChatGPT porque este producto estuvo ampliamente disponible de forma gratuita el otoño pasado, y era un poco más fácil de usar que los modelos de lenguaje anteriores. Pero ChatGPT está lejos de ser único.
ChatGPT se basa en tecnología que ha existido de una forma u otra desde que OpenAI lanzó la primera versión de transformadores generativos preentrenados en 2018. La idea básica es que un modelo está entrenado para predecir la siguiente palabra en una secuencia observada de palabras. Luego, cuando escribe un pasaje corto, un «indicador», el modelo puede predecir la siguiente palabra en la secuencia, y luego la siguiente palabra, y así sucesivamente. Para hacer un trabajo realmente bueno, un modelo necesita reconocer patrones de alto nivel y comportarse como si entendiera el lenguaje. Debido a que los modelos como este se volvieron mejores para generalizar a medida que los investigadores aumentaban el tamaño del modelo, a veces se les llama «modelos de lenguaje grande». También se les llama «IA generativa» porque no solo analizan textos, sino que usan lo que han aprendido para crear nuevos textos.
ChatGPT mejora las versiones anteriores de esta tecnología al entrenar un modelo específicamente para tratar las indicaciones como turnos en una conversación y responder, en lugar de simplemente continuar con su declaración.
ChatGPT no es único en esto; Google, Meta y Anthropic han lanzado modelos similares. Y OpenAI ha lanzado recientemente GPT-4, que es mejor que ChatGPT.
¿Deberían los educadores preocuparse por los estudiantes que usan ChatGPT u otros programas de escritura de inteligencia artificial para escribir sus trabajos de investigación, o deberían ver cómo las aplicaciones de IA pueden usarse como herramientas educativas para ayudar a los estudiantes a aprender?
Deberíamos hacer ambas cosas. Pero me gustaría que nos concentráramos un poco menos en el destino a corto plazo de nuestras tareas y más en las consecuencias a largo plazo para los estudiantes.
Algunos estudiantes están usando modelos para ayudarlos a escribir sus trabajos y hacer la tarea, y sí, eso es algo de lo que preocuparse. Queremos que los estudiantes aprendan, y si simplemente pegan una tarea en un cuadro y presionan Intro, no están aprendiendo mucho.
Pero esa es una pequeña parte de un problema mayor, que es que los estudiantes que ahora ingresan a la universidad probablemente se gradúen en un mundo transformado por la inteligencia artificial. Los modelos como ChatGPT ya se están integrando en el software de procesamiento de texto y los motores de búsqueda. En 10 años, serán tan familiares como lo es ahora para nosotros la función de autocompletar. Por lo tanto, decirles a los estudiantes «simplemente digan no a la IA» no será una forma suficiente de prepararlos para la década de 2030. Los estudiantes usarán estos modelos y necesitarán entenderlos.
Definitivamente hay algunos contextos, como un examen a libro cerrado, donde es apropiado decir «no use IA», tal como decimos actualmente «no busque la respuesta en la web». Pero las universidades también deberán ofrecer cursos y tareas que enseñen a los estudiantes cómo comprender estas herramientas y usarlas de manera apropiada y creativa.
¿Cuáles son algunos otros usos de los modelos de lenguaje de IA?
En este momento, nos estamos acercando a la IA de la forma en que a menudo nos acercamos a una nueva tecnología: estamos tratando de encajarla en un nicho existente. Los modelos de idiomas grandes se entienden ampliamente como máquinas de escribir, por lo que pensamos que «tal vez los estudiantes usen modelos para escribir sus trabajos finales». Los modelos también parecen capaces de responder preguntas, por lo que pensamos, «tal vez reemplacen a los motores de búsqueda».
Un modelo de lenguaje no es una biblioteca o una copia de Internet; es literalmente solo un modelo de lenguaje. Las personas se sentirán decepcionadas si esperan que el modelo de lenguaje en sí mismo proporcione conocimiento.
Creo que vamos a encontrar formas más interesantes de usar esta tecnología. En lugar de hacer viejas preguntas para las que ya existen respuestas, la forma interesante de usar uno de estos modelos es a menudo entregarle nueva evidencia que desea analizar, mientras describe con precisión el análisis que desea realizar.
Me gusta la manera del programador británico Simon Willison de decir esto, que es que un modelo de lenguaje es una calculadora de palabras. El modelo no contiene conocimiento exhaustivo. Pero es una pequeña máquina flexible que puede seguir instrucciones verbales, transformar texto y pensar en voz alta, por así decirlo, por escrito.
►La entrada ¿Deben los educadores preocuparse por ChatGPT? se publicó primero en MxPolítico.◄