¿Superinteligencia, me dices? Superinteligencia eres tú…

El artículo publicado ayer por Sam Altman, «The intelligence age«, avanzando que la superinteligencia estará a nuestro alcance en «unos pocos miles de días» y anunciándola como la solución a todos los problemas de la Humanidad, ha generado todo tipo de comentarios y críticas, y ha traído de nuevo al escenario la idea de que la inteligencia artificial pueda llegar a evolucionar hasta ser capaz de alcanzar un nivel que supere el de los genios y las mentes humanas más dotadas.

Si algo me produce especial fastidio son las discusiones terminológicas, y la que se establece en torno al concepto de superinteligencia, desgraciadamente, lo es. La idea de superinteligencia se suele referir a una inteligencia que supera las capacidades humanas en casi todos los ámbitos, incluyendo la creatividad, la resolución de problemas, la inteligencia social y otros. El concepto se discute a menudo en el contexto de la inteligencia artificial, y representa una hipotética fase futura en la que los sistemas de inteligencia artificial podrían exceder las habilidades cognitivas humanas de manera significativa.

La definición de Nick Bostrom, filósofo y teórico de la IA, se refiere a «un intelecto mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales», una inteligencia que no estaría limitada a tareas específicas como la IA actual (capaz de sobresalir en áreas muy concretas como el ajedrez, el Go, los videojuegos o el reconocimiento de patrones), sino que sería general, adaptativa y capaz de mejorarse a sí misma. Interesante, pero para mí, carente de lo que realmente diferencia a una inteligencia humana: la motivación y la intencionalidad.

La publicación de ChatGPT o1, anunciado por la compañía como «capaz de usar razonamiento avanzado» y que va mostrando la operativa de su proceso de pensamiento a medida que lo desarrolla, también ha contribuido mucho a alborotar el panorama. Sin duda, ChatGPT ya ha superado a la inmensa mayoría de los humanos a la hora de expresar ideas complejas con un buen nivel de corrección gramatical, pero ahora, además, se sugiere que los supera, además, cuando plantea razonamientos que requieren un trabajo de documentación, de procesamiento y relación de ideas, y en los que la expresión es tan solo un paso final.

Obviamente, la idea de que este tipo de algoritmos eran, de alguna manera, «completadores de frases» más o menos sofisticados, capaces simplemente de predecir qué palabras vienen detrás de otras, se ha quedado totalmente desfasada. Los algoritmos piensan, aunque no lo hagan como nosotros, y son capaces de aplicar esos procesos diferenciales de pensamiento a prácticamente cualquier cosa, con un nivel que excede el de muchísimos humanos – y decididamente, muchísimo más rápido. Tan solo la tarea de documentarse exhaustivamente para una pregunta es algo que genera una tarea humana que abarca mucho tiempo, y eso a pesar de tener disponible una herramienta como internet – inimaginable si tuviésemos que, como antes, acudir a bibliotecas y expertos para recopilar esa información relevante.

Por tanto, si admitimos que al ser humano como «inteligente», y a algunos de ellos como «muy inteligentes», mucho me temo que, digan lo que digan las definiciones, la superinteligencia ya está aquí desde hace tiempo, y no es humana. Los sistemas de inteligencia artificial actuales dependen en gran medida de los progresos del machine learning, especialmente del deep learning, y estos modelos son ya razonablemente generales a la hora de responder sobre distintas temáticas. Eso sí, razonan y lo expresan únicamente cuando alguien, un humano, se lo pide, y por tanto, podríamos decir que están aún lejos de alcanzar una inteligencia general porque, sobre todo, carece de motivación o intencionalidad. Pero por un lado, una inteligencia artificial capaz de mejorarse a sí misma de forma recursiva podría acelerar su propio desarrollo, y alcanzar la superinteligencia a una velocidad mucho mayor de la que los humanos podrían comprender.

Sin embargo, crear un sistema que replique o supere el espectro completo de la inteligencia humana —razonamiento, emociones, juicio ético y creatividad— sigue siendo un reto inmenso. La superinteligencia probablemente requeriría entender no solo cómo funciona la inteligencia, sino además, cómo emularla de formas que aún no comprendemos del todo.

¿Podría una superinteligencia servir para resolver problemas complejos en campos como la medicina, la energía o la física, que hoy en día están fuera del alcance de las capacidades humanas, y contribuir a avances científicos y tecnológicos? ¿Impulsar un nivel de crecimiento económico sin precedentes optimizando la gestión de recursos, la creación de nuevas industrias y la productividad? ¿O tener aplicaciones humanitarias como eliminar la pobreza, mejorar la educación y resolver las desigualdades globales al optimizar los sistemas sociales y la distribución de recursos? Seguramente, pero eso exigiría llegar a consensos internacionales para permitir su actuación que, seguramente, serían imposibles de lograr.

En su lugar, y dada la naturaleza humana, es desgraciadamente más probable que alcanzásemos escenarios negativos derivados ya no de una hipotética pérdida de control sobre la inteligencia artificial, sino de su uso para dar lugar a un desplazamiento laboral, a desajustes éticos y morales, a generar formas avanzadas de guerra más allá de la comprensión humana que escalasen las tensiones internacionales y generasen riesgos de conflictos catastróficos, o a terminar estando controlada por un pequeño número de entidades poderosas y exacerbar la desigualdad global.

La superinteligencia, por tanto, sigue siendo un concepto teórico con un potencial para redefinir el futuro de la humanidad inmenso, pero si la IA puede alcanzar realmente un nivel que consideremos superinteligencia dependerá no solo de avances científicos, sino también, y fundamentalmente, de consideraciones éticas i de gobernanza que aún no hemos resuelto por completo. De hecho, con el nivel de inteligencia actual de los algoritmos, ya se podrían hacer muchísimas cosas en términos de optimización de la civilización humana: mucho me temo que ChatGPT y otro puñado de algoritmos están ya muy por encima del nivel del político medio, y probablemente de muchos de aquellos que los votan. Si muchos políticos tomasen decisiones preguntando a esos algoritmos y aplicando sus respuestas, seguramente nos iría mucho mejor.

La clave, por tanto, no estará en obtener algoritmos más y más inteligentes, sino en plantearnos cómo gestionar los riesgos y aprovechar los beneficios de una manera que garantice un resultado positivo para la Humanidad. La clave, mucho me temo, no está en que nuestros algoritmos de inteligencia artificial alcancen la superinteligencia, sino en que nosotros podamos elevar un poco la nuestra y cambiar la forma en que llevamos siglos organizándonos, con el resultado que todos conocemos.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*