Desde que, a mediados de 2022, OpenAI inició la carrera de la inteligencia artificial generativa, Microsoft ha estado beneficiándose de la relación especial que tenía con la compañía gracias al hecho de haber diferido muchos de los costes asociados con el uso de su nube, Azure, como parte de su programa de apoyo a startups innovadoras.
Esa relación permitió a Microsoft convertirse en socio preferente de OpenAI e incorporar sus algoritmos a sus productos antes que otros e invertir en la compañía, aunque no obtuviese por ello derechos de voto. Sin duda, Microsoft se benefició mucho de esa relación, porque le permitió capitalizar una posición en inteligencia artificial que claramente no tenía suficientemente madurada e integrar ChatGPT en Office365 en forma de Copilot de manera ventajosa, con todas las ventajas de posicionamiento que ello conlleva. El coche de Microsoft en inteligencia artificial siempre llevaba ruedas de OpenAI.
Ahora bien, esa integración tiene, obviamente, sus costes en términos de uso del algoritmo, lo que conlleva un coste en tokens que aunque seguramente Microsoft habrá sabido negociar ventajosamente, puede llegar a ser importante, particularmente si sus muchísimos clientes corporativos se lanzan a usar Copilot como si no hubiera un mañana. Es el último de una serie de ejemplos que permiten ver cómo Microsoft, que ha invertido más de 13,000 millones de dólares en OpenAI durante los últimos cinco años como parte de esa asociación entre las dos compañías, va tratando de reducir su dependencia de sus modelos.
Así que Microsoft, consciente del coste que esto puede llegar a representar en su cuenta de resultados, se ha puesto a trabajar para reducir la dependencia que tiene de OpenAI, tratando de desarrollar sus propios modelos para sustituir a ChatGPT en Copilot. Además de entrenar sus propios modelos más pequeños, incluido el último Phi-4, Microsoft también está trabajando para personalizar otros modelos abiertos para que 365 Copilot sea más rápido y más eficiente. El objetivo es conseguir una reducción de costes para Microsoft asociada a la ejecución de 365 Copilot, y potencialmente llegar a trasladar parte de esos ahorros a sus clientes finales, ganando así en el atractivo de un producto que ha logrado una penetración muy importante gracias al dominio que la compañía tiene en el software corporativo.
Muchas compañías utilizan Copilot en Office 365 por una razón legal: necesitas asegurar que los datos que introducen a través de sus prompts se mantienen en un nivel de confidencialidad adecuado, no son compartidos como base de entrenamiento con otros posibles usuarios, y son procesados en centros de datos ubicados en la Unión Europea. Pero más allá de eso, si Microsoft logra obtener una ventaja en costes, la propuesta de valor podría hacerse mucho más interesante.
El comportamiento de Microsoft puede, además, ser razonablemente representativo de lo que muchas compañías podrían plantearse hacer a medida que las barreras de entrada al desarrollo de algoritmos generativos van reduciéndose: comenzar simplemente lanzando prompts a RAGs corporativos creados con la información de la compañía, pero ir probando esos prompts en otros modelos más económicos, posiblemente de código abierto o que pueden correr con menos recursos en instalaciones propias. Es perfectamente posible que muchas de las preguntas que los usuarios de una compañía hacen a un algoritmo generativo sean lo suficientemente triviales como para ser contestadas mediante modelos mucho menos sofisticados y más baratos que los de OpenAI, lo que permitiría ahorrar bastante dinero a quienes sepan llevar a cabo ese tipo de optimizaciones.
¿Significa el movimiento de Microsoft que estamos, de alguna manera, avanzando en una cierta comoditización de los algoritmos de inteligencia artificial generativa? La tendencia como tal me parece francamente difícil de evitar en el medio plazo. La duda para mí no es el qué, es el cuándo empezará a producirse, y cómo evolucionará el panorama competitivo cuando se produzca. Cuando comenzó la popularización de internet, las compañías que empezaron a vender acceso a la red, como AOL o Compuserve, tuvieron su momento, pero acabaron engullidas por esa popularización, que significó una comoditización absoluta del acceso, sin dejar prácticamente nada de dinero a ganar más que a las compañías de telecomunicaciones.
¿Veremos un fenómeno parecido en la inteligencia artificial generativa?
Dejar una contestacion