Desde que, tras el lanzamiento de ChatGPT en noviembre de 2022, los chatbots basados en inteligencia artificial generativa empezaron a estar disponibles para el gran público, me ha fascinado la forma en que los directivos se aproximan a su uso habitual.
Obviamente, el hecho de esta en contacto con numerosos directivos a través de la plataforma que, a varios niveles, supone mi trabajo en IE University – desde universitarios sin experiencia hasta MBAs con media de treinta años y varios de experiencia profesional, o alumnos de cursos de alta dirección – permite que pueda aproximarme de manera bastante razonable y completa a esta cuestión.
Tras una primera fase absurda en la que muchas instituciones educativas (nunca el IE) optaron por aproximaciones restrictivas, mis planteamientos sobre cómo gestionar esa cuestión se han mantenido bastante constantes: pedir a mis alumnos, independientemente de su nivel, que utilicen todo tipo de herramientas basadas en inteligencia artificial generativa para todo tipo de ejercicios y en todo momento, con la seguridad de que yo no voy a penalizarles por ese uso, pero pidiendo transparencia a la hora de decirme cómo lo han hecho. Básicamente, lo que les pido es que usen lo que quieran, pero que compartan conmigo cómo lo han utilizado, añadiendo como referencia el enlace a el o los prompts que hayan usado para obtener las respuestas.
La experiencia está siendo interesantísima, porque lejos de optar por un uso simplista de «pego la pregunta, obtengo una respuesta, la copio y la pego en el trabajo», lo que hacen es aproximaciones a su uso sumamente sofisticadas, en las que tienden a plantear numerosas restricciones, pero también a llevar a cabo revisiones bastante pormenorizadas y profundas de la información recibida. Al tener disponible para mi evaluación tanto el prompt y la respuesta original de los algoritmos, como el trabajo final entregado por los alumnos, puedo apreciar el trabajo de supervisión llevado a cabo sobre esa respuesta original, que tiende a incluir fuentes adicionales obtenidas por otros medios, en lo que supone una tarea de co-diseño en el que el trabajo del asistente es, fundamentalmente, gestionar grandes cantidades de información a modo de motor de búsqueda, dotado de mayor capacidad de estructuración.
No tengo en ningún caso la impresión de que invitar a mis estudiantes a utilizar toda la tecnología a su disposición de manera completamente transparente esté en modo alguno perjudicando su aprendizaje: más bien todo lo contrario. Encuentro una mayor variedad de argumentaciones, habitualmente planteadas de formas más realistas, y en muchos casos también, usos de las herramientas para cuestiones secundarias, como la corrección de errores tipográficos o gramaticales, que eran muy habituales al ser mis clases íntegramente en inglés y ser ese idioma la segunda lengua para muchos de mis estudiantes, que provienen literalmente de todo el mundo.
Mi impresión es, por tanto, coincidiendo con el artículo que enlazo en el primer párrafo, que utilizan asistentes basados en inteligencia artificial generativa de dos formas fundamentales: como ejecutor (ayudando con la escritura, resumen, codificación, traducción y recuperación de información) y como asistente para reflexiones (para generar ideas, resolver problemas o desafiar ideas que podrían ser, en muchos casos, arriesgadas, habituales en un curso de tecnología innovación como el mío). Experimentan con la inteligencia artificial generativa en una amplia gama de tareas, desarrollando con ello gradualmente nuevas capacidades. También demuestran un buen nivel de conciencia de las limitaciones y los riesgos de la inteligencia artificial generativa, utilizando prácticas apropiadas, como proporcionar la información contextual necesaria a la IA, adoptar una mentalidad conversacional o ejercer un juicio crítico para evitar depender demasiado de la tecnología. Es raro que me encuentre con respuestas que contengas las mal llamadas «alucinaciones» o cuestiones obviamente absurdas, lo que indican que la idea de multiplicar el tiempo de supervisión tiende a desarrollarse, como una forma de sentido común.
También es curioso pensar que tras una primera era en la que los directivos pedían generalmente a personal administrativo que llevasen a cabo tareas como teclear textos o preparar presentaciones, pasásemos a otra en la que los directivos tendían a encargarse cada vez más de esas tareas ellos mismos, y ahora, sin embargo, van volviendo a encargárselo a un tercero, solo que ahora es un asistente de inteligencia artificial generativa. Desde el punto de vista de aprendizaje y educación, veo escasos problemas derivados de ello, y sí ventajas provenientes de desarrollar una mayor soltura en el manejo habitual de herramientas avanzadas. Y de cara a su futuro tras salir al mercado de trabajo, francamente, tampoco.
¿Se debe lo positivo de mi experiencia al nivel en el que desarrollo mi trabajo como profesor o al tipo de asignaturas que imparto, o puede ser generalizable también a otros niveles? ¿Experiencias? ¿Impresiones?
Dejar una contestacion