
Resulta curioso que NVIDIA se haya convertido en un engranaje clave para el desarrollo de la inteligencia artificial. Esta compañía estadounidense, con sede en Santa Clara (California), es conocida sobre todo por los gamers de PC al diseñar unidades de procesamiento de gráficos, lo que se conoce como GPUs y, popularmente, reciben el nombre de tarjetas gráficas.
Si bien NVIDIA continúa creando GPUs para jugar en ordenador o trabajar en proyectos que requieran de alto procesamiento gráfico, el negocio principal de la compañía se ha vuelto el diseño de chips especializados en inteligencia artificial. Para que esta reciente tecnología funcione de forma óptima, necesita el hardware de NVIDIA.
Así es como NVIDIA se ha convertido en la principal compañía proveedora de chips para IA del mundo. ChatGPT, Claude y otros bots conversacionales importantes que millones de personas usan a diario han sido entrenados con sus productos, como los H100 o H200 (Este último puede costar alrededor de 30 mil euros. Casi nada). NVIDIA sigue mejorando sus chips porque su CEO asegura que, en el futuro, la IA requerirá de mucha más potencia.
La IA piensa más para proporcionar la mejor respuesta, y eso requiere más potencia
Aunque parece que la inteligencia artificial lleve toda la vida con nosotros, lo cierto es que la gente normal y corriente ha tenido acceso a ella desde hace muy poco tiempo. ChatGPT, que es el bot conversacional más popular del mundo, fue lanzado a finales de 2022, por lo que está disponible desde hace menos de tres años.
Sin embargo, se ha vuelto una herramienta de uso diario tan importante para mucha gente que es como si la llevara utilizando una década. En estos meses, la creación de OpenAI, la compañía a la que Sam Altman está al cargo, ha mejorado muchísimo, hasta el punto de convertirse en un versátil motor de búsqueda capaz de rivalizar con Google y ofrecer un soporte satisfactorio en la aplicación de WhatsApp.
Jen-Hsun Huang, CEO de NVIDIA, en una entrevista a CNBC, aseguró que la inteligencia artificial «necesitará 100 veces más potencia de computación» en el futuro, debido a que los nuevos modelos de razonamiento piensan «en la mejor manera de responder» a las preguntas paso a paso.
La cantidad de computación necesaria para hacer ese proceso de razonamiento es 100 veces mayor que lo que solíamos hacer
Huang, durante la entrevista, citó algunos de los modelos más importantes del mercado, como GPT-4 de OpenAI, Grok 3 de xAI (la compañía fundada por Elon Musk en 2023 con la que quiere crear la mejor IA) o R1 de DeepSeek, que es la inteligencia artificial china que ha puesto patas arriba el mercado por sus bajos costes de desarrollo e impresionante rendimiento.
El empresario taiwanés comentó en la entrevista que DeepSeek popularizó los modelos de razonamiento que necesitarán más chips: «DeepSeek fue fantástico porque hizo público un modelo de razonamiento que es absolutamente de primera categoría». El hardware de NVIDIA, para desgracia de la compañía, no puede adentrarse en el mercado chino de manera legal debido a las restricciones en importaciones y exportaciones.
El artículo Jen-Hsun Huang, CEO de NVIDIA, habla sobre el futuro de la inteligencia artificial: «La próxima generación de IA necesitará 100 veces más computación» fue publicado originalmente en Urban Tecno.
Dejar una contestacion