Microsoft presenta su primer chip para inteligencia artificial, junto con un chip basado en Arm para tareas informáticas de propósito general. Ambos llegarán a la nube Azure de Microsoft, según anunció la empresa en su conferencia Ignite de Seattle. El chip Graviton Arm que el líder de la nube Amazon Web Services introdujo hace cinco años ha conseguido una amplia adopción.
Microsoft presentó dos chips en su conferencia Ignite de Seattle.
El primero, su chip de inteligencia artificial Maia 100, podría competir con las cotizadas unidades de procesamiento gráfico de inteligencia artificial de Nvidia.
unidades de procesamiento gráfico de inteligencia artificial de Nvidia. El segundo, un chip Cobalt 100 Arm, está destinado a tareas informáticas generales y podría competir con los procesadores Intel.
Puede leer también | Los espionajes remota de millones de dispositivos Android son por un error críticos del chipset
Las empresas tecnológicas ricas en efectivo han empezado a dar a sus clientes más opciones de infraestructura en la nube que pueden utilizar para ejecutar aplicaciones. Alibaba
Amazon y Google llevan años haciéndolo. Microsoft, con unos 144.000 millones de dólares en efectivo a finales de octubre, tenía una cuota de mercado en la nube del 21,5% en 2022, sólo por detrás de Amazon, según una estimación.
Las instancias de máquinas virtuales que funcionan con los chips Cobalt estarán disponibles comercialmente a través de la nube Azure de Microsoft en 2024, dijo Rani Borkar, vicepresidenta corporativa, a CNBC en una entrevista. Borkar no dio plazos para el lanzamiento de Maia 100.
Puede leer también | Alibaba revela un chip de servidor personalizado basado en ARM dirigido computación en la nube.
Google anunció su unidad de procesamiento tensorial original para IA en 2016. Amazon. Web Services reveló su chip Graviton basado en Arm y su procesador Inferentia AI en 2018, y anunció Trainium, para modelos de entrenamiento, en 2020.
Los chips especiales de IA de los proveedores de la nube podrían ayudar a satisfacer la demanda cuando haya escasez de GPU. Pero Microsoft y sus homólogos en la computación en nube no tienen previsto permitir que las empresas compren servidores que contengan sus chips, a diferencia de Nvidia o AMD.
Borkar explicó que la empresa creó su chip para la computación de IA basándose en los comentarios de los clientes.
Puede leer también | Cómo funciona el chip de Elon Musk que se implanta en el cerebro
Microsoft está probando cómo Maia 100 satisface las necesidades del chatbot de IA de su motor de búsqueda Bing (ahora llamado Copilot en lugar de Bing Chat), el asistente de codificación GitHub Copilot y GPT-3.5-Turbo, un gran modelo lingüístico de OpenAI, respaldado por Microsoft, explicó Borkar. OpenAI ha alimentado sus modelos lingüísticos con grandes cantidades de información de Internet, y pueden generar mensajes de correo electrónico, resumir documentos y responder preguntas con unas pocas palabras de instrucción humana.
Inversión por la Inteligencia Artificial
El modelo GPT-3.5-Turbo funciona en el asistente ChatGPT de OpenAI, que se hizo popular poco después de estar disponible el año pasado. A continuación, las empresas se apresuraron a añadir funciones de chat similares a su software, lo que incrementó la demanda de GPU.
"Hemos estado trabajando en todos los ámbitos y con todos nuestros proveedores para mejorar nuestra posición de suministro y atender a muchos de nuestros clientes y la demanda que nos han planteado", declaró Colette Kress, responsable financiera de Nvidia, en una conferencia de Evercore celebrada en Nueva York en septiembre.
OpenAI ya ha entrenado anteriormente modelos en GPUs Nvidia en Azure. Además de diseñar el chip Maia, Microsoft ha ideado un hardware personalizado de refrigeración líquida llamado Sidekicks que encaja en bastidores justo al lado de los bastidores que contienen servidores Maia. La compañía puede instalar los bastidores de servidores y los bastidores Sidekick sin necesidad de reequipamiento, dijo un portavoz.
Puede leer también | Tu Agencia de Expertos en Inteligencia Artificial: Potenciando el Futuro con IA
En el caso de las GPU, aprovechar al máximo el espacio limitado del centro de datos puede plantear problemas. Según Steve Tuck, cofundador y CEO de la empresa de servidores Oxide Computer, a veces las compañías colocan algunos servidores con GPU en la parte inferior del rack, como si fueran "huérfanos", para evitar el sobrecalentamiento, en lugar de llenar el rack de arriba abajo. A veces, las empresas añaden sistemas de refrigeración para reducir las temperaturas, explica Tuck.
Microsoft podría ver una adopción más rápida de los procesadores Cobalt que de los chips Maia AI si la experiencia de Amazon sirve de guía. Microsoft está probando su aplicación Teams y el servicio Azure SQL Database en Cobalt. Hasta ahora, han funcionado un 40% mejor que con los chips actuales de Azure basados en Arm, que proceden de la startup Ampere, según Microsoft.
Puede leer también | ¿Qué es la IA Generativa? Inteligencia Artificial que crea
En el último año y medio, a medida que los precios y los tipos de interés han ido subiendo, muchas empresas han buscado métodos para hacer más eficiente su gasto en la nube, y para los clientes de AWS, Graviton ha sido uno de ellos. Los 100 principales clientes de AWS utilizan ahora los chips basados en Arm, que pueden suponer una mejora del 40% en la relación precio-rendimiento, según el Vicepresidente Dave Brown.
Sin embargo, pasar de las GPU a los chips de IA AWS Trainium puede ser más complicado que migrar de los Intel Xeon a los Graviton. Cada modelo de IA tiene sus propias peculiaridades. Mucha gente ha trabajado para que una serie de herramientas funcionen en Arm debido a su prevalencia en los dispositivos móviles, y eso es menos cierto en el silicio para la IA, dijo Brown. Sin embargo, con el tiempo, espera que las organizaciones obtengan una relación precio-rendimiento similar con Trainium en comparación con las GPU.
"Hemos compartido estas especificaciones con el ecosistema y con muchos de nuestros socios en el ecosistema, lo que beneficia a todos nuestros clientes de Azure", afirmó.
Borkar dijo que no tenía detalles sobre el rendimiento de Maia en comparación con alternativas como la H100 de Nvidia. El lunes, Nvidia dijo que su H200 empezará a comercializarse en el segundo trimestre de 2024.