Los cada vez más sorprendentes alcances de la Inteligencia Artificial obligan a examinar la influencia que esta tecnología podrá tener en los ámbitos académicos. Los especialistas parecen estar de acuerdo en que los cambios serán inevitables: lo que está por verse es el modo en que las universidades podrán adaptarse a ellos, a fin de obtener el mejor provecho para sus tareas sustanciales.
La Inteligencia Artificial (IA) tiene el potencial de afectar de manera positiva la educación universitaria, por ejemplo, al personalizar el aprendizaje con la creación de materiales y recursos específicamente adecuados al rendimiento y a la motivación de cada estudiante. También se puede encargar de la automatización de tareas tales como la corrección de exámenes, la evaluación de ensayos y la gestión de cursos, lo que permitirá a los profesores y al personal universitario centrarse en actividades menos rutinarias y más creativas.
Además de hacer más accesibles los contenidos para los estudiantes con alguna discapacidad, la IA puede analizar a gran velocidad grandes cantidades de datos obtenidos en las investigaciones académicas, lo que puede llevar a descubrimientos y conclusiones más precisas y rápidas.
Sin embargo, también hay aspectos negativos, entre los que destacan el riesgo de que los estudiantes se vuelvan demasiado dependientes de la tecnología y pierdan habilidades importantes, como la resolución de problemas y la creatividad.
Aún más, los algoritmos pueden reflejar sesgos existentes en los datos de entrenamiento, lo que llevaría a la reproducción de prejuicios y discriminación en la educación, y eso por no hablar de la posibilidad de las preocupaciones que plantea la recopilación de datos personales acerca de la privacidad y la seguridad de los estudiantes y del personal universitario.
Al menos, todo esto es lo que responde ChatGPT, la rockstar actual en el mundo de la Inteligencia Artificial, cuando se le pregunta sobre la trascendencia que tendrán estas nuevas tecnologías en las aulas universitarias.
De acuerdo con expertos, profesores y usuarios, parece que sabe de lo que está hablando.
“Justo ayer lo utilicé [el ChatGPT] para hacer la reseña de una tarea que nos pidió un profe”, cuenta Adriana, una estudiante universitaria, a condición de que su nombre real no se revele, en voz baja y en medio de las sonrisas cómplices de quienes escuchan la entrevista.
“Tenemos que ver unas películas para esa materia y duran muchísimo, y la verdad, por el tiempo, no logro verlas y prefiero que lo haga el algoritmo; luego, conforme a lo que alcance a ver, ir escribiendo yo algo para que no se vea tan robótico, porque sí se ve un poco robótico, como si lo hubiera sacado de Wikipedia”.
Aunque hay una amplia diversidad de definiciones, así como un fuerte debate en torno a ellas, la Inteligencia Artificial puede entenderse como la capacidad de las máquinas y sistemas informáticos para realizar tareas que normalmente requieren inteligencia humana, como la percepción, el aprendizaje, la resolución de problemas y la toma de decisiones (explicación, cómo no, de ChatGPT).
Algunas de las tareas que estos algoritmos ya realizan son el reconocimiento de voz y de imágenes, la traducción de idiomas, la asistencia virtual (a través de Siri, Google Assistant, Alexa, etcétera) y la conducción autónoma, solo por mencionar algunas.
“De una manera muy sencilla, y desde una perspectiva así, simple, de programador, yo lo definiría como cuando un programa, un algoritmo, un conjunto de algoritmos o el código, son capaces de brindarte una información para la que no fueron explícitamente creados”, explica Gladstone Oliva Íñiguez, profesor investigador y director de Tecnologías del Sistema de Universidad Virtual de la Universidad de Guadalajara (UdeG).
El uso de estas herramientas en labores académicas no es algo nuevo. Hay una serie de algoritmos de IA populares en algunos sectores, como Paraphraser (paraphraser.io), que ofrece parafrasear, reescribir y corregir textos, además de detectar plagios. Más o menos con la misma oferta, además de la posibilidad de traducir textos y generar citas, está Quillbot (quillbot.com). Para detectar cuando alguien se apropia de una idea ajena, una de las opciones favoritas de los profesores (al menos en las universidades que tienen membresía) es Turnitin (turnitin.com). Ni qué decir de Grammarly (grammarly.com), que usa la IA para componer y corregir textos en inglés.
De hecho, Diego F. Craig, maestro en Tecnología Educativa y Competencias Digitales, propone una lista de 101 algoritmos que pueden usarse en el aula; la relación forma parte de su libro Computadoras que aprenden. Guía básica para docentes sobre Inteligencia Artificial en educación (disponible de forma gratuita en craig.ar).
Pero, a pesar de que el uso de esta tecnología en los entornos educativos no es algo realmente nuevo, la llegada al escenario de ChatGPT, de la empresa OpenAI, detonó toda una nueva discusión. La razón: es una herramienta abierta al público en general, que simula una cibercharla con el usuario en la que puede construir textos complejos.
A pesar de que el uso de esta tecnología en los entornos educativos no es algo realmente nuevo, la llegada al escenario de ChatGPT, de la empresa OpenAI, detonó toda una nueva discusión.
“Claro que es impresionante […] pero yo creo que todavía estamos en los primeros momentos de desarrollo de estos algoritmos, por lo menos en los usos académicos, porque son, hasta cierto punto, factuales; o sea, lo que hacen es dar datos, acomodarlos de manera sensata, pero se quedan ahí en la parte superficial o un poquito más abajo de superficial”, explica Juan Carlos Silas Casillas, coordinador del Doctorado Interinstitucional en Educación del ITESO.
Puede que sean respuestas superficiales, pero han despertado la imaginación de propios y extraños.
“Es algo que rompe paradigmas, algo que cambia en muchos sentidos a la sociedad y, específicamente, la educación, que es el tema que me involucra. Realmente creo que es una tecnología disruptiva y que va a cambiar un montón de cosas”, cuenta Craig, en entrevista desde Corrientes, Argentina.
“En mi cabeza venía prediciendo todo lo que se venía viendo con el procesamiento de imágenes, con Stable Diffusion (stablediffusionweb.com), con Dall-E (labs.openai.com), con Midjourney (midjourney.com). Pero cuando todo esto pasa al procesamiento del lenguaje natural y, por primera vez, una computadora nos entiende cuando le escribimos como si le estuviéramos escribiendo a una persona y, a la vez, nos contesta como si estuviera contestándonos una persona, es algo que realmente me sorprendió al extremo”.
Y las sorpresas que se espera que siga dando: “La Inteligencia Artificial tiene varios segmentos, uno de los cuales es el machine learning, y quizás este es el que más nos impresiona, porque el ChatGPT está aprendiendo de nosotros: la intención de ponerlo a disposición de la gente es que tenga muchas más capacidades para aprender”, adelanta Alejandro Martínez Varela, coordinador de Diseño de Proyectos Tecnológicos de la UdeG.
No son los únicos impresionados: presentado al público apenas el 30 de noviembre de 2022, este chatbot logró sumar un millón de usuarios en apenas cinco días. A Facebook le tomó 10 meses alcanzar esa cifra; a Netflix, tres años y medio.
Este éxito ya resulta en una nueva carrera tecnológica: Microsoft invirtió 10 mil millones de dólares en OpenAI para que le permitiera integrar ChatGPT a su buscador Bing, lo que parece haber convencido a algunos de lo impensable: dejar de usar Google Chrome. Pero, aunque al escribir estas líneas aún no está disponible en México, Google ya respondió con su propuesta de chatbot, Google Bard (bard.google.com), en Estados Unidos y Reino Unido.
Tal vez ignorantes de estas opiniones técnicas y pleitos comerciales, muchos estudiantes saben lo que realmente importa en su contexto: estos algoritmos pueden hacerles la tarea. Y los que aún no lo saben, es probable que pronto se enteren: TikTok se está encargando de eso con una miríada de videos con títulos al estilo de “Esta aplicación te hace los deberes”.
“Sí va a haber algunos que, tal cual, copien y peguen [el texto generado por un algoritmo], que no se van a dar a la tarea de leer”, advierte Adriana, paradójicamente, en una entrevista en medio de la biblioteca de su universidad.
“Creo que sí se puede perder esa hambre de querer saber más, de tener más conocimiento, por solamente copiar, pegar y cumplir con la tarea; o pensar que, en algún momento, el mismo chat te haga tu tesis en la universidad”.
Entre los expertos entrevistados hay más bien un sentimiento de optimismo. La preocupación, más que por el plagio, tiene que ver con el aumento de la brecha que separa a quienes tienen acceso y las habilidades para manejar esta tecnología inteligentemente y quienes no las tienen.
“Nosotros, acá en Argentina, no sé cómo será en México, tenemos estudiantes que llegan al nivel superior sin un buen grado de comprensión de textos, y estas herramientas están hablando de procesamiento del lenguaje natural”, indica Craig. “Para eso tenemos que tener la suficiente creatividad para escribir un buen prompt, como se le denomina a la orden que se les da a estas herramientas y, a la vez, suficiente criterio como para interpretar una respuesta”.
Al académico argentino también le sorprende la velocidad con la que avanza esta tecnología. “OpenAI es una empresa privada con fines de lucro, que va a lucrar con todo esto, que vende la versión plus por 20 dólares y, encima, de un día para el otro, del GPT3 te saca el GPT4, que es más evolucionado; y, paralelamente, viene Google, viene Microsoft, viene Meta, vienen las empresas chinas, o sea que es una velocidad de evolución que no me imaginé que iba a ver en mi vida”, agrega. “Esto genera un gran riesgo: que las brechas digitales que estamos viviendo, si esto no se maneja bien, pueden acrecentarse; hay que tener muchísimo cuidado y hay que seguirlo de cerca y hay que trabajar mucho”.
Para mitigar estos riesgos y promover la igualdad en la educación, es importante que la instrumentación de la IA se realice de manera equitativa y se aborden los problemas de sesgos algorítmicos, prejuicios incorporados en los algoritmos que pueden afectar de forma negativa a ciertos grupos de estudiantes, advierte una respuesta de ChatGPT.
“También es importante que los recursos necesarios para implementar la IA estén disponibles para todas las escuelas y distritos escolares, independientemente de su ubicación o tamaño. Además, se deben tomar medidas para garantizar que los estudiantes tengan acceso igualitario a la tecnología y a las oportunidades de aprendizaje que la IA puede ofrecer”, añade el robot, seguramente sin entender lo que esas palabras implican para un país como México.
Así, el temor al plagio parece ser el menos relevante en esta discusión. “Les preocupa que un estudiante realmente no haga la tarea, que la copie tal cual. Existe ese riesgo y existe ese peligro. Es el más básico; puede haber cosas más serias, pero han existido siempre: estamos ante un escándalo grandísimo como el de la señora ministra [Yasmín Esquivel, acusada de plagiar su tesis de licenciatura a mediados de los ochenta, y la de su doctorado, a finales de la década pasada] y no existía ChatGPT”, señala Oliva Íñiguez.
“¿Te gustaría tener a un Jean Piaget, a un Paulo Freire, a disposición tuya en la actualidad, sentados al lado para que te ayuden a trabajar tu pedagogía y mejorar tu didáctica?”, preguntó Craig recientemente a un grupo de alrededor de 70 profesores, haciendo referencia a dos de los nombres más respetados en la materia.
“Después les fui preguntando: ‘¿Te gustaría tener un asistente que te ayude a completar tareas rutinarias o que te dé ideas para impartir de otra forma la misma secuencia didáctica que venías desarrollando desde hace un tiempo?’. Y las respuestas contundentes son que sí: todos quieren un asistente robot ahí al lado que les dé una mano”.
Aún más, Silas Casillas, del ITESO, recuerda que la palabra robot fue popularizada por el escritor checo Karel Čapek en su obra de teatro R.U.R., y que proviene del vocablo robota: esclavo.
Y ese es precisamente el papel que estos expertos se imaginan que estos algoritmos pueden interpretar en el aula: hacerse cargo del trabajo pesado y repetitivo. Esto daría tiempo a alumnos y maestros para realizar actividades más valiosas, creativas y satisfactorias.
“Por ejemplo, gran parte de la programación es tediosa, tienes que poner el código, pero es repetitivo, es lo mismo y te lleva tiempo. Bueno, eso se lo puedes estar dejando a una Inteligencia Artificial. O, no sé, de pronto voy a analizar un montón de datos, una identificación de patrones: pues se lo podría dejar a una Inteligencia Artificial, también”, propone Oliva Íñiguez.
“Hay muchas ventajas en la investigación, incluso en la corrección de estilo; no necesariamente es ‘róbate un artículo, parafraséalo y ya se ve diferente’, sino hacer que la IA me corrija el estilo, que me proponga sinónimos, que encuentre si cité mal un trabajo”.
“De hecho”, agrega Alejandro Martínez Varela, de la UdeG, “esta es una discusión que ya hemos tenido en el pasado. Cuando yo estudiaba ingeniería, tenía clase de dibujo y había algunos profesores que nos prohibían utilizar computadoras porque decían que eso era trampa, porque hay una cultura del esfuerzo y porque te tiene que costar trabajo para que realmente aprecies las estructuras y las dimensiones y todo eso. Si lo analizamos en retrospectiva, son patrañas”, afirma. “La verdad es que gracias a que tenemos computadoras hemos podido reducir los tiempos de diseño, por ejemplo, en el diseño industrial y en arquitectura. De hecho, el desarrollo tecnológico está más basado en la copia y en la apropiación que en tener ideas completamente nuevas”.
Claro que todo este optimismo no será posible sin el compromiso de los profesores y de las instituciones para las que trabajan, coinciden los expertos. Algunos, tempranamente, comienzan a incluir esta tecnología en sus planes de estudio. Es el caso de Arturo Cabrera Romero, licenciado en Tecnologías e Información y actualmente profesor de Tecnología Educativa con el enfoque de STEM (Ciencia, Tecnología, Ingeniería y Matemáticas, por sus siglas en inglés) en el Colegio de Bachilleres del Estado de Jalisco 2.
Entre sus actividades ya ha sumado la de crear presentaciones con textos generados por la IA, así como la verificación de la confiabilidad de los mismos; también trabaja la creación de cuestionarios y la automatización de respuestas de correo electrónico.
“En este caso entra la creatividad, porque hablarle a esta herramienta de Inteligencia Artificial no es tan fácil; hay que entender el lenguaje que maneja para que nos dé lo que queremos realmente”, explica. “Por otra parte, está la resolución de problemas a través de algún desafío, a lo mejor poniéndoles un tiempo para que puedan ellos resolverlo utilizando esta herramienta, y también ahí [se practica] la colaboración: hacer algunos equipos para ver quién lo hace de una forma más creativa, quién puede interactuar con la herramienta con fluidez o rapidez”.
Es el mismo caso de Martínez Varela, de la UdeG, quien adelanta que “este semestre, lo que les voy a decir es: ‘Van a abrir una sesión de ChatGPT, van a tomar el tema que a ustedes más les interese y le van a dar las instrucciones para que les genere un archivo de 10 cuartillas’ […] y ya, cuando tengan el documento, entonces ya lo convierten y le dan formato [que es el objetivo de la práctica]”.
En un sondeo realizado entre profesores de tres universidades distintas (una pública y dos privadas) acerca de cuál ha sido su reacción ante el uso de ChatGPT, las respuestas son variopintas, pero muestran ya un interés por el tema: “Yo no lo he prohibido, tampoco usado, pero sí planeo hacerlo en el contexto de alguna actividad orientada a reflexionar en clase sobre sus limitaciones y para introducir directamente el tema de la ética de la IA”, dice una maestra.
En un sondeo realizado entre profesores de tres universidades distintas (una pública y dos privadas) acerca de cuál ha sido su reacción ante el uso de ChatGPT, las respuestas son variopintas, pero muestran ya un interés por el tema.
“La idea es incorporarlo, prohibirlo no va a servir; hasta el momento, en español es difícil detectarlo”, agrega otra.
“Lo he recomendado, pero pidiendo que busquen referencias. En algunas clases hemos recurrido al ChatGPT para iniciar el tema”, añade un maestro. Más que prohibir el uso de la herramienta, lo que toca a los profesores es enseñar a utilizarla con criterio, coinciden los especialistas.
“Tenemos que fortalecer todas las habilidades de pensamiento superior: de pensamiento estratégico, analítico; no dejar que este tipo de herramientas afecte nuestra creatividad”, recomienda Carlos Lara G., académico, escritor y doctor en Derecho de la Cultura por la Universidad Carlos III de Madrid. “Si algo falta respecto a las nuevas tecnologías es criterio para utilizarlas”, añade, “y, en el ámbito educativo, si algo se fomenta, si algo se da, pues es eso: un proceso educativo, un proceso de enseñanza-aprendizaje para tener criterio y saber utilizar estas herramientas”.
Claro, esta no debe ser una responsabilidad exclusiva de los profesores, sino que tiene que ser liderada desde las áreas administrativas, indican los entrevistados; si bien, casi todos coinciden en que las universidades no suelen cambiar con la prisa necesaria. “Las universidades tendrían que reaccionar con gran rapidez porque esta tecnología es muy disruptiva, altera por completo el modelo de evaluación que estamos utilizando al día de hoy”, advierte Craig.
Silas Casillas se suma al llamado de que las instituciones universitarias deben “entrarle de lleno” al asunto. “Esperaría que en los cursos de inducción y en los cursos de capacitación que se ofrecen en todas las universidades ya se hable de esto y que haya talleres y todo eso, porque es inevitable”.
Si se le pregunta a ChatGPT, el algoritmo parece tenerlo claro: “Las universidades pueden apoyar a sus profesores en el uso de la IA por parte de los estudiantes al ofrecer capacitación, proporcionar recursos adicionales, establecer grupos de trabajo, crear una cultura de apoyo y establecer políticas claras”.
Mientras eso ocurre, la estudiante Adriana propone una solución más sencilla: pensar en actividades lo suficientemente estimulantes como para no querer dejárselas a un robot.
“Encuentro muchísimos videos en YouTube que hablan de teorías que veo en la escuela, pero con temas aplicados a la realidad; por ejemplo, lo que dice [el sociólogo francés Pierre] Bourdieu, pero aplicado a un tema de música o de tendencias, y llega a ser interesante, y a mí sí se me llega a grabar”, explica. “O tal vez hacer un resumen de lo que viste en clase y aplicarlo en tu vida diaria. Yo creo que eso estaría bien, porque el chat no te va a responder lo que vives en tu día a día”.
Ante los temores que genera la masificación del uso de algoritmos de Inteligencia Artificial (IA) en actividades educativas, algunas escuelas, como las públicas en Nueva York o el Instituto de Estudios Políticos de París, han decidido prohibir el uso de ChatGPT.
Sin embargo, hay otros acercamientos. Por ejemplo, Open Universities Australia, una plataforma que ayuda a estudiantes a explorar opciones de educación en línea en ese país, ha propuesto un código deontológico respecto del uso de ese chatbot. Entre sus recomendaciones incluye usarlo como guía antes de escribir un ensayo, para hacer tormentas de ideas, investigar más sobre algún material que el estudiante no comprenda, utilizarlo como corrector de estilo y citar cualquier asistencia de IA.
Por el otro lado, previene contra la posibilidad de pedir a un algoritmo escribir ensayos completos, confiar ciegamente en la información generada por la IA o llevar a cabo cualquier actividad que viole las políticas de integridad académica de las universidades.
En México, el Tec de Monterrey ha solicitado a sus estudiantes verificar con sus profesores la manera correcta para hacer uso de esta tecnología, reportar y citar todo uso de cualquier sistema de Inteligencia Artificial para realizar trabajos académicos, así como recordar que las tecnologías de IA pueden tener imprecisiones y no deben ser consideradas una fuente.
“Yo creo en la deontología, siempre, en todos los procesos, y siempre hago un llamado a volver a los principios predigitales de conexión a través de la deontología”, destaca Carlos Lara G., doctor en Derecho de la Cultura por la Universidad Carlos III de Madrid. “Creo que las universidades son quienes deben mediar. Tú no puedes dejar una tecnología como esta sin mediación porque, sin mediación, se le puede dar ene número de usos”.
Fuente: Magis, revista para los profesionales que edita el Instituto Tecnológico de Estudios Superiores de Occidente (ITESO), la Universidad Jesuita de Guadalajara, https://magis.iteso.mx / Imagen: Pexels.