Mi columna de esta semana en Invertia se titula «Inteligencia artificial y educación: no nos equivoquemos de nuevo» (pdf), y trata de relacionar la decisión de muchas instituciones educativas y gobiernos de prohibir radicalmente los smartphones en la educación «porque son peligrosos» con lo sucedido hasta el momento con la inteligencia artificial generativa, que fue igualmente prohibida y ahora es protagonista de persecuciones utilizando herramientas absurdas para tratar de identificar si los alumnos la han utilizado o no.
Como siempre, la verdad se sitúa en un punto medio: ni smartphones a todas horas y para todo, ni algoritmos utilizados de manera que los alumnos no vean necesario aprender nada. Pero cuando una tecnología se sitúa como una de las llamadas «de propósito general», y por tanto se convierten en protagonistas de una revolución en su proceso de adopción y podemos tener por seguro que pasarán a formar parte de nuestras vidas queramos o no, tenemos que tratarla como tal e integrarla en el proceso educativo, y si es potencialmente peligrosa, más aún. Relegarla a la prohibición solo supone renunciar a educar, y por tanto, generar problemas más graves cuando esos alumnos finalmente pueden acceder a ella.
Los economistas canadienses Richard Lipsey, Ken Carlaw y Cliff Bekar, en su libro «Economic transformations: general purpose technologies and long-term economic growth«, estiman en veinticuatro las tecnologías definidas como de propósito general que han surgido a lo largo de toda la historia humana, entre las que se encuentran desde la agricultura, el sistema fabril, el desarrollo de la metalurgia y de materiales como el bronce o el hierro, la escritura, la imprenta, la electricidad hasta, por supuesto, internet o el smartphone. De haberse escrito ahora, y no en 2006, la lista incluiría, por supuesto y sin ninguna duda, la inteligencia artificial. Hablamos de tecnologías que no solo son protagonistas de procesos de difusión fulgurantes, sino que además, son susceptibles de marcar una enorme diferencia entre los que tienen acceso a ellas y los que no lo tienen.
A día de hoy, nos resultaría inimaginable plantearnos nuestra sociedad sin esas tecnologías, aunque dada la relativa novedad de las más recientes, algunos todavía pretendan abominar de ellas y plantearse que cualquier tiempo pasado fue mejor. Obviamente, las tecnologías son eso, herramientas, lo que permite que sean utilizadas de manera positiva o negativa. A lo largo del proceso de desarrollo y adopción, estos usos positivos se acompañan de usos irresponsables y potencialmente peligrosos, como ha ocurrido con un smartphone que en principio resulta interesantísimo como potente ordenador de bolsillo, pero que también se convierte, por culpa del desarrollo de determinados modelos de negocio nocivos, en una herramienta peligrosamente adictiva.
La forma de reaccionar ante ese tipo de peligros es, como bien sabemos con tecnologías anteriores, la educación. A ninguna persona razonable se le ocurriría hoy en día prohibir la metalurgia porque con ella pueden fabricarse armas peligrosas, ni la escritura o la imprenta porque pueden ser utilizadas para plasmar ideas peligrosas. Sin embargo, eso sí ocurrió en el pasado: el imperio otomano, por ejemplo, trató infructuosamente de prohibir la imprenta, y logró retrasar tres siglos su adopción. El problema de la contención, muy bien ilustrado por Mustafa Suleyman en los primeros capítulos de su reciente libro «The coming wave«, es que ejercerla es sumamente delicado, y salvo en contadísimas y muy específicas ocasiones, nunca funciona.
Cuando algo se considera potencialmente peligroso pero sabemos que su uso es susceptible de marcar una diferencia positiva, lo que la sociedad debe hacer es educar en ese uso. En el caso de esas tecnologías relativamente recientes, como internet, el smartphone o la inteligencia artificial, estamos en ese caso. Las empresas, durante algunos años, pretendieron prohibir el acceso a internet de sus trabajadores porque «se distraían». Los colegios hicieron lo mismo, y apoyados por mentalidades en muchos casos populistas y por ideas obviamente muy poco elaboradas desde algunos gobiernos, pretenden hacer lo mismo con los smartphones, obviando que hacer renuncia expresa a educar en su uso supone crear una generación de torpes ignorantes que en cuanto puedan poner sus manos en un smartphone, lo harán sin haber recibido la debida instrucción (y no me refiero a instrucción técnica, esa es prácticamente obvia) y, por tanto, serán susceptibles de caer en todo tipo de problemas y peligros que muchas compañías irresponsables diseñan para ello.
Con la inteligencia artificial está pasando lo mismo. Hablamos de una tecnología indudablemente potentísima, pero que debe ser, como tal, administrada, nunca prohibida. La primera oleada de reacciones de las instituciones educativas ante el lanzamiento de ChatGPT en noviembre de 2022 fue clarísima: había que prohibir su uso. Desde entonces, se está produciendo una guerra constante entre alumnos que pretenden utilizarla constantemente y para todo, e instituciones y profesores que tratan de identificar mediante herramientas variadas (generalmente muy poco fiables y muy poco recomendables) cuándo ha sido utilizada, y amenazan con todo tipo de sanciones, desde el suspenso a la expulsión.
No, una vez más, la prohibición no tiene ningún sentido, como no lo tiene pretender volver al papel y al lápiz alegando que «cualquier tiempo pasado fue mejor». Es sencillamente absurdo renunciar a educar en tecnologías que los alumnos necesitarán sin ningún género de dudas en el futuro. ¿Es peligrosa la inteligencia artificial para el aprendizaje? Potencialmente sí, pero eso, de nuevo, no debería implicar su prohibición, sino la educación en su uso.
Un interesante estudio reciente, «AI tools in society: impacts on cognitive offloading and the
future of critical thinking«, prueba que, como aventuré en su momento en un artículo que ha sido republicado y traducido ya en varias ocasiones, el uso de herramientas de inteligencia artificial generativa en el pensamiento crítico tienden a fomentar lo que se conoce como cognitive offloading, la descarga cognitiva: tendemos a delegar tareas mentales al sistema externo, en muchos casos, además, con muy escasa supervisión. Las herramientas de inteligencia artificial reducen la carga cognitiva al automatizar tareas rutinarias, pero esa comodidad disminuye las oportunidades de que nuestro cerebro participe en procesos críticos y reflexivos, fundamentales en el aprendizaje.
Eso nos lleva a que el uso frecuente de herramientas de inteligencia artificial, si no lo asociamos con las necesarias indicaciones o la formación adecuada en su uso, tienda a asociarse con menores puntuaciones en pensamiento crítico, sobre todo entre los estudiantes más jóvenes, que pasan rápidamente a mostrar una mayor dependencia de estas herramientas en comparación con los grupos de mayor edad que llevan a cabo un uso más adecuado. Es muy parecido a lo que ocurre con la calculadora: obviamente, no puede recomendarse su uso cuando un alumno aún no ha desarrollado la las habilidades matemáticas básicas, pero es completamente absurdo prohibirla en niveles más avanzados o para determinadas tareas.
Lo importante, por tanto, es plantear una reflexión sobre cómo nuestra creciente dependencia de la inteligencia artificial podría debilitar habilidades esenciales como el pensamiento crítico y la resolución de problemas especialmente en las generaciones más jóvenes, resaltando la importancia de encontrar un equilibrio entre aprovechar los beneficios de la inteligencia artificial y mantener nuestras capacidades cognitivas independientes, sin renunciar a la educación como hicimos con los smartphones. ¿En algún momento se plantearon los profesores utilizar los smartphones como parte del proceso educativo, incluso sustituyendo al libro de texto? No, y de hecho, la mayoría trataron esa idea como una blasfemia y se limitaron a reclamar su prohibición. Ahora, una generación de alumnos influenciables, volubles e incapaces de diferenciar bulos y desinformación de realidades demuestra que eso fue un craso error que, como sociedad, pagaremos durante mucho tiempo.
Eso nos lleva, por tanto, a la enorme importancia de incorporar la inteligencia artificial en el proceso educativo, pero a hacerlo de la manera adecuada, con supervisión y con las garantías de que el alumno no «subcontrata» su pensamiento crítico al algoritmo, sino que lo usa como un ingrediente más en su proceso productivo. No prohibir, sino supervisar y enseñar a usar. Usar inteligencia artificial no es necesariamente copiar, y de hecho, su uso es el futuro de la educación.
Si optamos por aproximaciones maximalistas, por prohibiciones taxativas y por persecuciones absurdas mediante herramientas que fallan con suma facilidad y generan acusaciones falsas, estaremos repitiendo errores anteriores, y renunciando a educar en herramientas que cualquiera puede entender que resultan fundamentales para el futuro.
Planteemos con cuidado, sin extremismos ni reacciones histéricas, la estrategia de las instituciones educativas con respecto a la inteligencia artificial: podríamos estar corriendo el riesgo de dar lugar a otra generación de ignorantes incapaces no de usar las herramientas, que son enormemente fáciles de usar, sino de usarlas bien y con las garantías adecuadas. No volvamos a cometer el mismo error.
Dejar una contestacion