abril 27, 2024

Regionalpuebla.mx

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

Nvidia anuncia el chip GB200 Blackwell AI, que se lanzará a finales de este año

Nvidia anuncia el chip GB200 Blackwell AI, que se lanzará a finales de este año

El director ejecutivo de Nvidia, Jensen Huang, pronuncia un discurso de apertura durante la conferencia de inteligencia artificial de Nvidia GTC en el Centro SAP el 18 de marzo de 2024 en San José, California.

Justin Sullivan | imágenes falsas

NVIDIA El lunes, anunció una nueva generación de chips y software de IA para impulsar los modelos de IA. El anuncio, realizado durante la Conferencia de Desarrolladores de Nvidia en San José, se produce cuando el fabricante de chips busca consolidar su posición como importante proveedor de empresas de inteligencia artificial.

El precio de las acciones de Nvidia se ha quintuplicado y las ventas totales se han más que triplicado desde que ChatGPT de OpenAI provocó el auge de la IA a finales de 2022. Las GPU para servidores de última generación de Nvidia son esenciales para entrenar e implementar grandes modelos de IA. Empresas como microsoft Y muerto Se gastaron miles de millones de dólares en comprar chips.

La nueva generación de procesadores gráficos impulsados ​​por IA se llama Blackwell. El primer chip de Blackwell se llama GB200 y se enviará a finales de este año. Nvidia ha estado atrayendo a sus clientes con chips más potentes para estimular nuevos pedidos. Por ejemplo, las empresas y los fabricantes de software todavía están luchando por obtener la generación actual de chips «Hopper» H100 y chips similares.

«Hopper es genial, pero necesitamos GPU más grandes», dijo el lunes el director ejecutivo de Nvidia, Jensen Huang, en la conferencia de desarrolladores de la compañía en California.

Las acciones de Nvidia cayeron más del 1% en las operaciones ampliadas del lunes.

La compañía también presentó un programa de generación de ingresos llamado NIM que facilitará la implementación de IA, brindando a los clientes otra razón para continuar usando chips Nvidia en medio de un creciente campo de competidores.

READ  Kohl's y Franchise Group inician negociaciones exclusivas para la venta

Los ejecutivos de Nvidia dicen que la compañía se ha convertido menos en un proveedor mercenario de chips y más en un proveedor de plataformas, como Microsoft o Apple, sobre las cuales otras compañías pueden desarrollar software.

«Blackwell no es un chip, es el nombre de una plataforma», afirmó Huang.

«El producto comercialmente vendible era la GPU y el software estaba destinado a ayudar a las personas a utilizar la GPU de diferentes maneras», dijo en una entrevista el vicepresidente de la Fundación Nvidia, Manuvir Das. «Por supuesto, todavía lo hacemos. Pero lo que realmente ha cambiado es que ahora tenemos una empresa de software empresarial».

Das dijo que el nuevo software de Nvidia facilitará la ejecución de software en cualquiera de las GPU de Nvidia, incluso en las más antiguas que pueden ser más adecuadas para la implementación pero no para la creación de IA.

«Si eres desarrollador y tienes un modelo interesante que quieres que la gente adopte, si lo pones en NIM, nos aseguraremos de que se pueda reproducir en todas nuestras GPU, para que puedas llegar a mucha gente». Dijo Das.

Conozca a Blackwell, el sucesor de Hopper

Superchip GB200 Grace Blackwell de Nvidia, con dos GPU B200 y una CPU basada en Arm.

Cada dos años, Nvidia actualiza su arquitectura de GPU, lo que genera un gran salto en el rendimiento. Muchos de los modelos de IA lanzados durante el año pasado han sido entrenados en la arquitectura Hopper de la compañía, que utiliza chips como el H100, que se anunciará en 2022.

Nvidia dice que los procesadores basados ​​en Blackwell, como el GB200, ofrecen una enorme mejora de rendimiento para las empresas de IA, con 20 petaflops en rendimiento de IA frente a 4 petaflops del H100. Nvidia dijo que la potencia de procesamiento adicional permitirá a las empresas de inteligencia artificial entrenar modelos más grandes y complejos.

READ  La nueva idea para renovar Penn Station le pagaría al multimillonario James Dolan alrededor de $ 500 millones

El chip incluye lo que Nvidia llama un «motor transformador diseñado específicamente para alimentar la IA basada en transformadores, una de las tecnologías centrales detrás de ChatGPT».

La GPU Blackwell es grande y combina dos matrices fabricadas por separado en un solo chip fabricado por TSMC. También estará disponible como un servidor completo llamado GB200 NVLink 2, que combina 72 GPU Blackwell y otras piezas de Nvidia diseñadas para entrenar modelos de IA.

El director ejecutivo de Nvidia, Jensen Huang, compara el tamaño del nuevo chip «Blackwell» con el actual chip «Hopper» H100 en la conferencia de desarrolladores de la compañía, en San José, California.

NVIDIA

Heurística de microservicios de Nvidia

Nvidia también anunció que agregará un nuevo producto llamado NIM, que significa Nvidia Inference Microservice, a su suscripción al programa Nvidia Enterprise.

NIM facilita el uso de GPU Nvidia heredadas para la inferencia o el proceso de ejecución de programas de inteligencia artificial, y permitirá a las empresas continuar usando los cientos de millones de GPU Nvidia que ya poseen. La inferencia requiere menos potencia computacional que el entrenamiento inicial de un nuevo modelo de IA. NIM permite a las empresas que quieran ejecutar sus propios modelos de IA, en lugar de comprar acceso a los resultados de la IA como un servicio de empresas como OpenAI.

La estrategia es conseguir que los clientes que compran servidores basados ​​en Nvidia se suscriban a Nvidia Enterprise, cuya licencia cuesta 4.500 dólares por GPU al año.

Nvidia trabajará con empresas de inteligencia artificial como Microsoft o Hugging Face para garantizar que sus modelos de inteligencia artificial estén ajustados para ejecutarse en todos los chips Nvidia compatibles. Luego, utilizando NIM, los desarrolladores pueden ejecutar eficientemente el modelo en sus propios servidores o en los servidores basados ​​en la nube de Nvidia sin un largo proceso de configuración.

«En mi código, donde llamaba a OpenAI, reemplazaba una línea de código para apuntar al NIM que obtuve de Nvidia», dijo Das.

Nvidia dice que el software también ayudará a que la IA se ejecute en computadoras portátiles equipadas con GPU, en lugar de servidores en la nube.