- Microsoft desarrolla Athena, un chip de IA para entrenar modelos de lenguaje grande.
- A pesar de esto, Nvidia sigue siendo el líder del mercado en suministro de chips de IA.
- Los hiperescaladores necesitan desarrollar su propio silicio personalizado para satisfacer las necesidades de inferencia de sus clientes.
Microsoft ha estado trabajando en el desarrollo de un nuevo chip de inteligencia artificial (IA), conocido como Athena, desde 2019. El chip está diseñado para manejar el entrenamiento de modelos de lenguaje grande y podría estar disponible para su uso dentro de la propia empresa y OpenAI a partir del próximo año. A pesar de esto, los expertos dicen que Nvidia, el líder del mercado en cuanto al suministro de chips de IA, no se verá amenazado por este movimiento de Microsoft, pero sí indica la necesidad de que los hiperescaladores desarrollen su propio silicio personalizado.
Desarrollo de Athena y la necesidad de silicio personalizado
El chip Athena está diseñado para manejar el entrenamiento de modelos de lenguaje grande, ya que la escala de los modelos de IA generativos avanzados está creciendo más rápido que las capacidades informáticas necesarias para entrenarlos.
Microsoft busca acelerar su estrategia de IA generativa mientras reduce los costos, lo que tiene sentido que la empresa desarrolle una estrategia aceleradora de IA personalizada y diferenciada, que podría ayudarles a ofrecer economías de escala disruptivas más allá de lo que es posible utilizando enfoques tecnológicos tradicionales comodotizados.
El liderazgo de Nvidia en el mercado
A pesar de que Microsoft esté trabajando en el desarrollo de su propio chip de IA, Nvidia sigue siendo el líder del mercado en cuanto al suministro de chips de IA.
Las empresas compiten solo para reservar el acceso a las GPU A100 y H100 de gama alta que cuestan decenas de miles de dólares cada una, lo que provoca una crisis de GPU.
Aunque los hiperescaladores buscan sus propias versiones optimizadas de chips de IA para sus propias arquitecturas y algoritmos optimizados, no específicos de CUDA, los expertos no esperan que Nvidia muestre signos de desaceleración y continúe construyendo sobre su innovación de clase líder e impulse la diferenciación competitiva a medida que surgen los ASIC de IA personalizados.
La necesidad de silicio personalizado para inferencia
La necesidad de aceleración también se aplica a los chips de IA que admiten la inferencia de aprendizaje automático, es decir, cuando un modelo se reduce a un conjunto de pesos que luego usan datos en vivo para producir resultados procesables.
Nvidia produce chips de IA de propósito general muy potentes y ofrece su plataforma de cómputo paralelo CUDA como una forma de hacer entrenamiento de ML específicamente, pero la inferencia generalmente requiere menos rendimiento, y los hiperescaladores ven una manera de impactar también las necesidades de inferencia de sus clientes con silicio personalizado.