Todas las Noticias en Películas, Avances de Películas y Reseñas.

Microsoft construyó una supercomputadora para OpenAI para entrenar grandes modelos de IA

Escucha el Podcast:

Para entrenar enormes conjuntos de modelos, Microsoft ha creado una supercomputadora para la puesta en marcha de investigación de inteligencia artificial (IA) OpenAI. La compañía incorporó miles de chips gráficos Nvidia A100 para ayudar a los chatbots ChatGPT y Bing AI.

El fabricante de Windows se comprometió a construir una “supercomputadora masiva y de vanguardia” a cambio de su inversión de mil millones de dólares en OpenAI.

¿Por qué Microsoft construyó una supercomputadora?

El propósito de esto supercomputadora es ofrecer la potencia computacional necesaria para entrenar y volver a entrenar un número cada vez mayor de modelos de IA utilizando cantidades masivas de datos durante períodos prolongados.

Nidhi Chappell, jefe de producto de Microsoft para computación de alto rendimiento e inteligencia artificial de Azure, afirmó: “Una de las cosas que aprendimos de la investigación es que cuanto más grande es el modelo, más datos tiene y cuanto más tiempo puede entrenar, mayor la precisión del modelo es.

Continuó diciendo que, además de tener la infraestructura más destacada, también debe poder ejecutarla de manera confiable durante un período de tiempo prolongado. “También hubo un tremendo impulso para entrenar modelos más grandes durante un período más prolongado.

Microsoft dijo que está construyendo una supercomputadora para OpenAI que se alojaría en Azure y se usaría exclusivamente para entrenar modelos de IA en su conferencia de desarrolladores Build en 2020.

Greg Brockman, presidente y cofundador de OpenAI, dijo: “El codiseño de supercomputadoras con Azure ha sido necesario para escalar nuestras exigentes demandas de capacitación en IA, haciendo posible nuestro trabajo de investigación y alineación en sistemas como ChatGPT.

Recomendado:  Donde mirar | Documental Girls in Jail en línea

Supercomputadora de Microsoft ¿Arquitectura?

Microsoft modificó la forma en que organizaba los servidores en bastidores para evitar cortes de energía y conectó decenas de miles de chips gráficos Nvidia A100 para entrenar modelos de IA.

Esta vez. Así es como ChatGPT llegó a ser posible. Un modelo que resultó de ello es ese. Según Chappell, citado por Bloomberg, habrá mucho más.

Scott Guthrie, vicepresidente ejecutivo de Microsoft responsable de la nube y la IA, afirmó que el costo del proyecto es “definitivamente más” que varios cientos de millones de dólares.

microsoft azure está obteniendo más poder

OpenAI también requiere una poderosa arquitectura en la nube además de una supercomputadora para procesar y entrenar modelos. Microsoft ya está trabajando para mejorar las capacidades de IA de Azure Cloud con nuevas máquinas virtuales que utilizan la red Quantum-2 InfiniBand y las GPU Nvidia H100 y A100 Tensor Core.

Con esto, Microsoft hará posible que OpenAI y otras empresas que confían en Azure entrenen modelos de IA más grandes y complejos. Algunas empresas ya están implementando chatbots de IA.

OpenAI fue uno de los primeros puntos de prueba que demostró la necesidad de crear clústeres de propósito especial centrados en soportar enormes cargas de trabajo de capacitación. Eric Boyd, vicepresidente corporativo de Azure AI en Microsoft, continuó: “Trabajamos de cerca con ellos para identificar cuáles eran las cosas importantes que buscaban mientras construían sus entornos de capacitación y cuáles eran las cosas esenciales que necesitaban.