Todas las Noticias en Películas, Avances de Películas y Reseñas.

Optimizaciones de IA Intel oneDNN habilitadas de forma predeterminada en TensorFlow

En la última versión de TensorFlow 2.9las mejoras de rendimiento aportadas por el Biblioteca de redes neuronales profundas Intel® oneAPI (oneDNN) están activados de forma predeterminada. Esto se aplica a todos los paquetes de Linux x86 y a las CPU con funciones de hardware centradas en redes neuronales (como AVX512_VNNI, AVX512_BF16 y extensiones vectoriales y matriciales AMX que maximizan el rendimiento de la IA mediante el uso eficiente de los recursos informáticos, la utilización mejorada de la caché y el formato numérico eficiente) que se encuentran en Procesadores escalables Intel® Xeon® de segunda generación y CPU más nuevas. Estas optimizaciones habilitadas por oneDNN aceleran operaciones clave que requieren un alto rendimiento, como convolución, multiplicación de matrices y normalización por lotes, con hasta Mejoras de rendimiento 3 veces en comparación con versiones sin aceleración oneDNN.

(Foto: Corporación Intel)

LEA TAMBIÉN: ¡El primer chip criptográfico Intel llegará este 2022! ¿1000 veces más eficiente que las GPU convencionales?

Por qué es importante:

unDNN Las mejoras de rendimiento que estarán disponibles de forma predeterminada en la versión oficial de TensorFlow 2.9 permitirán a millones de desarrolladores que ya usan TensorFlow beneficiarse sin problemas de la aceleración del software Intel, lo que generará ganancias de productividad, tiempos de capacitación más rápidos y una utilización eficiente de la computación. Las aplicaciones adicionales basadas en TensorFlow, incluidas TensorFlow Extended, TensorFlow Hub y TensorFlow Serving, también tienen optimizaciones de oneDNN. TensorFlow ha incluido soporte experimental para oneDNN desde TensorFlow 2.5.

oneDNN es una biblioteca de rendimiento multiplataforma de código abierto de bloques de construcción básicos de aprendizaje profundo destinada a desarrolladores de marcos y aplicaciones de aprendizaje profundo. Las aplicaciones y los marcos que habilita pueden ser utilizados por los profesionales del aprendizaje profundo. oneDNN es parte de oneAPI, un modelo de programación unificado, abierto y basado en estándares para uso en CPU, GPU y otros aceleradores de IA.

Recomendado:  Obi-Wan: reveló la verdadera razón del aplazamiento de la serie

Si bien se hace hincapié en los aceleradores de IA, como las GPU, para el aprendizaje automático y, en particular, el aprendizaje profundo, las CPU siguen desempeñando un papel importante en todas las etapas del flujo de trabajo de la IA. El extenso trabajo de Intel para habilitar software hace Marcos de IA, como la plataforma TensorFlow, y una amplia gama de aplicaciones de IA se ejecutan más rápido en hardware Intel que está omnipresente en la mayoría de los dispositivos personales, estaciones de trabajo y centros de datos. Intel rico portafolio de bibliotecas, marcos y herramientas optimizados satisfacen las necesidades de implementación y desarrollo de IA de un extremo a otro mientras se construyen sobre la base de oneAPI.

Lo que esto ayuda a habilitar:

Las aceleraciones de TensorFlow impulsadas por oneDNN ofrecen mejoras de rendimiento notables que benefician a aplicaciones que abarcan el procesamiento del lenguaje natural, el reconocimiento de imágenes y objetos, los vehículos autónomos, la detección de fraudes, el diagnóstico y tratamiento médico, y otros.

Las aplicaciones de aprendizaje profundo y aprendizaje automático se han disparado en número debido al aumento en la potencia de procesamiento, la disponibilidad de datos y los algoritmos avanzados. TensorFlow ha sido una de las plataformas más populares del mundo para el desarrollo de aplicaciones de IA, con más de 100 millones de descargas. TensorFlow optimizado por Intel está disponible como componente independiente y a través del Kit de herramientas de análisis de IA Intel® oneAPIy ya se está utilizando en una amplia gama de aplicaciones industriales, incluida la Proyecto Google Salud, Realización de películas de animación en Laika Studios., traducción de idiomas en Liltprocesamiento del lenguaje natural en IBM Watson y muchos otros.

Recomendado:  Agregar miembros de 3K-5K al grupo de WhatsApp - Herramientas

La letra pequeña:

Avisos y exenciones de responsabilidad

El rendimiento varía según el uso, la configuración y otros factores. Obtenga más información en www.Intel.com/PerformanceIndex. Los resultados pueden variar.

Los resultados de rendimiento se basan en pruebas realizadas en las fechas que se muestran en las configuraciones y es posible que no reflejen todas las actualizaciones disponibles públicamente.

Ningún producto o componente puede ser absolutamente seguro.

Sus costos y resultados pueden variar.

Las tecnologías Intel pueden requerir hardware, software o activación de servicios habilitados.

Intel no controla ni audita los datos de terceros. Debe consultar otras fuentes para evaluar la precisión.

ARTÍCULO RELACIONADO: Intel Exec dice que los diseños de referencia para las GPU Alchemist ya se han enviado

ⓒ 2023 . .