Todas las Noticias en Películas, Avances de Películas y Reseñas.

AMD presenta una nueva línea de procesadores de inteligencia artificial, con el objetivo de competir con Nvidia

AMD reveló algunos detalles más sobre su próxima línea de procesadores de inteligencia artificial, en un esfuerzo por competir con sus rivales y ayudar a los centros de datos a manejar la popularidad de la IA. Esto fue objeto de burlas a principios de este año durante la Consumer Electronic Show Convention 2023.

La apuesta de AMD por la IA generativa

A medida que ChatGPT de OpenAI se convierte en una de las herramientas más populares relacionadas con la IA, mucha gente se ha estado preguntando si otras GPU cumplirán con los requisitos de gran memoria computacional de los LLM además de las A100 y H100 de NVIDIA. Según un informe de BloombergAdvanced Micro Devices Inc. cambiará eso a finales de este año.

AMD presentó la serie Instinct MI300 a principios de este año y la directora ejecutiva, Lisa Su, reveló más detalles sobre la GPU. La compañía declaró hoy durante una presentación en San Francisco que esto incluirá un acelerador que tiene la capacidad de acelerar el procesamiento de la IA generativa, que es utilizada de manera similar por ChatGPT y otros chatbots.

La compañía también presentó durante la presentación el acelerador Instinct MI300X, que se afirma como el acelerador más avanzado del mundo para IA generativa. Se basa en la próxima generación de la arquitectura del acelerador AMD CDNA 3 y admite hasta 192 GB de memoria HBM 3, con el objetivo de proporcionar la eficiencia informática y de memoria necesaria para la formación de LLM.

Dado que está equipado con una gran memoria, los clientes ahora pueden instalar LLM como Falcon-40, un modelo de parámetros 40B en un solo acelerador MI300X5. Aparte de esto, la compañía también presentó la plataforma AMD Instinct que incorpora MI300x a un diseño que se considera el estándar en la industria para resolver la inferencia y el entrenamiento de IA.

Recomendado:  La Casa de Papel: Dónde encontrar actores en Netflix – Noticias vistas en la web

Por último, AMD Instinct MI300A se presentó como el primer acelerador de APU para cargas de trabajo de HPC e IA del mundo. Actualmente se está probando a los clientes, mientras que MI300X comenzará a realizar muestreos clave en el tercer trimestre del año.

Compitiendo para ofrecer la primera combinación de CPU y CPU del mundo

A medida que la industria de los chips se vuelve más desafiante para el mercado, AMD se apresura a satisfacer la creciente demanda de computación con IA a medida que los centros de datos se llevan al límite. Servicios especialmente populares que dependen en gran medida de grandes modelos de lenguaje y algoritmos que requieren una enorme cantidad de datos para responder consultas y generar imágenes lo más rápido posible.

El CEO Su agregó que AMD todavía se encuentra en el ciclo de vida inicial de la inteligencia artificial, pero en cuanto a la preparación, será mucha. Tecnología WCCF informó que el mercado total direccionable para aceleradores de IA para centros de datos se quintuplicará a más de 150 mil millones de dólares para 2027.

Junto con AMD, Intel y NVIDIA están compitiendo actualmente para ofrecer la primera combinación de CPU y CPU del mundo. Se suponía que Intel ofrecería Falcon Shores como apuesta, que iba a combinar una CPU x86 con una GPU de última generación. Desafortunadamente, esos planes no llegaron a buen término y enfrentaron retrasos en el proyecto.

Lea también: Laptop para juegos Acer Nitro 16 QHD con AMD Ryzen 7735HS y RTX 4070 detectada como descuento: $ 100 de descuento en MSRP

según Forbes‘, Microsoft y OpenAI necesitan tener una alternativa a NVIDIA, lo cual llega en el momento perfecto, ya que proyectan que AMD le dará a la compañía una oferta que no pueden rechazar sabiendo que MI300X parece ser un competidor sólido. Aunque esto no ha sido confirmado, el informe afirma que todavía es posible que suceda.

Recomendado:  Valve prohíbe los juegos en Steam que incluyan imágenes y texto generados por IA

ⓒ 2023 . .