La interesante evolución del panorama en inteligencia artificial

Mi columna de esta semana en Invertia se titula «De modelos a agentes» (pdf), y trata de explicar de una manera razonablemente accesible la transición que está teniendo lugar en el panorama de la inteligencia artificial, un campo que aún resulta muy novedoso para mucha gente pero que refleja transformaciones cada vez más importantes y decisivas para su futuro.

El primer estadío de evolución tras la aparición del mítico paper que dio origen a los transformers y a la IA generativa fue el del desarrollo de modelos masivos de lenguaje. Una era que, a efectos populares, que no de investigación, se inicia con el lanzamiento por OpenAI de Dall·E, primero, y de ChatGPT después, hace ahora casi exactamente dos años, que se convirtió en un acontecimiento a todos los niveles y en el fenómeno de adopción tecnológica más rápido de la historia.

El lanzamiento de esos modelos generó, además de muchísima expectación, mucha competencia. Otras compañías, algunas de toda la vida, otras no tanto, se lanzaron al mercado; Microsoft, gracias a su privilegiada relación con OpenAI derivada de su uso de Azure, con Copilot, o Google, primero con Bard y después con Gemini. Pero también nuevos entrantes, como Anthropic con Claude, o Perplexity, Meta con Llama, y toda una suerte de ecosistema que bordea el código abierto con compañías como Mistral y un buen número de competidores chinos, entre otros. Expresar una interfaz de un modelo como un chatbot es vistoso, razonablemente sencillo y ofrece muchas ventajas de cara a su fácil adopción, lo que hace que prácticamente todos la adopten.

Todas esas compañías contaban con las llamadas scaling laws, o leyes de escalado, que describen cómo cambia el rendimiento de una red neuronal a medida que se amplían o reducen factores clave que incluyen la cantidad de parámetros, el tamaño del conjunto de datos de entrenamiento, el coste del entrenamiento o la tasa de errores post-entrenamiento. El desarrollo de modelos menos conocidos por el gran público como Chinchilla y su posterior evolución responden al razonamiento de que esas scaling laws van a hacer que la inteligencia de los modelos progrese constantemente a medida que incrementamos sus parámetros, con todo lo que ello conlleva: una lucha de fuera bruta entre compañías en función de cuántos recursos de computación pueden permitirse, bien por su acceso a la nube, bien por las cantidades ingentes de datos necesarias, a los que algunos acceden mediante acuerdos y otros directamente se llevan puestos sin preguntar.

¿Donde está el problema? Cuando esas compañías empiezan a ser conscientes de que las scaling laws no aplican eternamente. De repente, trasciende que GPT5 es solo marginalmente mejor que GPT4, y que, de alguna manera, se está alcanzando un techo o plateau. Y frente a algunos apocalípticos de esos que hay en todas partes empiezan con la cantinela de «hasta aquí hemos llegado», «era todo una burbuja» y «no se puede pasar de aquí», empezamos a encontrarnos con otras compañías que empiezan a explorar otra frontera diferente: la de los agentes.

¿Qué es un agente? Simplemente, una entidad capaz de percibir su entorno y de tomar acciones de manera autónoma para alcanzar unos objetivos definidos, que además puede mejorar su desempeño con el aprendizaje o la adquisición progresiva de conocimientos. Esta idea de los agentes, que precisa de entornos capaces de generar feedback para esa adquisición progresiva de conocimientos, empieza a surgir como reacción, y lleva a Marc Benioff, de Salesforce, a decir que «el futuro de la IA está en los agentes, no en los chatbots«.

¿Qué ocurre ahora? Que cada vez más, el futuro no apunta a modelos monolíticos y enormes, sino a poblaciones de agentes capaces de coevolucionar en función de las circunstancias que los rodean. Anthropic, de hecho, tras proponer un agente autónomo capaz de utilizar los programas de tu ordenador por ti, lanza propone una nueva manera de conectar datos con los agentes, que permite que los modelos (cualquier modelo, no solo los de Anthropic) extraigan datos de fuentes como herramientas comerciales y software para completar tareas, así como de repositorios de contenido y entornos de desarrollo de aplicaciones. Una nueva arquitectura y fisonomía que va a dar lugar a nuevos planteamientos, que aún estamos empezando a explorar.

De modelos. a agentes. Así, cuando muchos todavía no han empezado siquiera a entender lo que conlleva cada uno. Si crees que esto va muy rápido, es porque, efectivamente, va muy rápido. Pero eso no quiere decir que te puedas permitir el lujo de esperar a que se consolide nada, porque muchos veces ni lo hará. El mundo es de los que analizan y toman decisiones rápidamente.

Por el momento, quedémonos con la tendencia y su aplicación, porque la vamos a ver en cada vez más sitios. Las implicaciones evidentes son claras: sistemas capaces de ganar inteligencia de manera más rápida y adaptativa. ¿Las consecuencias? Ya las veremos.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*