Tuesday , November 24 2020

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
Home / Diseño Digital / Startup debuta con hardware de aceleración para la nube

Startup debuta con hardware de aceleración para la nube

El fabricante de aceleradores para sistemas de la nube Groq, ahora es capaz de ejecutar transacciones de Machine Learning sobre los entornos Cloud del proveedor Nimbix.

ElectronicosOnline.com Magazine / Oswaldo Barajas

Las compañías Nimbix , y Groq, el primero proveedor de servicios de computación en la nube, y el segundo, fabricante de hardware acelerador de sistemas de Inteligencia Artificial, anunciaron la liberación de una gama de módulos aceleradores exclusivos para servicios de la nube.

 

Con este movimiento, Groq se convierte en la segunda empresa en el mercado junto con la compañía Graphcore, en ofrecer hardware de aceleración para servicios de la nube dirigido a clientes minoritarios que opten por incluir en sus ciclos operativos tecnología de procesamiento con aprendizaje profundo y de Inteligencia Artificial.

“Nuestra asociación con Groq elimina los desafíos de establecer y mantener la infraestructura de Aprendizaje de Máquinas en el sitio, permitiendo a los clientes comprar aceleradores de ML como un servicio personalizado. Pueden aprovechar las oportunidades que se derivan de la IA y la computación cognitiva sin necesidad de invertir en hardware optimizado para el aprendizaje automático”, mencionó Nimbix en su comunicado de prensa.

Rendimiento alcanzado por el nuevo chip IA para la nube de Groq.

 

Por su parte, Steve Hebert, CEO de Nimbix, comentó: “La arquitectura simplificada de Groq es única ya que provee un desempeño determinístico y sin precedentes para cargas de trabajo intensivas de cómputo, y es una adición emocionante para nuestra plataforma basada en IA y Aprendizaje Profundo”.

A la gama de chips de Groq se les conoce como Tensores de Procesamiento Streaming (TSP), y presumiblemente alcanzan hasta 1,000 TOPS (1 Peta-Operaciones por Segundo) y hasta 21,700 inferencias por segundo gracias a una interface embebida denominada ResNet-50, el cual según datos de Groq, es equivalente al doble del rendimiento de los actuales sistemas basados en GPUs, convirtiéndolo así en uno de los módulos aceleradores más rápidos existentes comercialmente en el mercado como chips de redes neuronales.

- PUBLICIDAD -

“Los resultados del ResNet-50 son una validación de que la arquitectura y enfoque únicos de Groq para la aceleración del Aprendizaje de Máquinas ofrecen un rendimiento de inferencia considerablemente más rápido que el de nuestros competidores. Estos elementos de prueba en el mundo real, basados en puntos de referencia estándar de la industria y no en simulaciones o emulación de hardware, confirman las ganancias de rendimiento mensurables para el Aprendizaje de Máquinas y las aplicaciones de Inteligencia Artificial hechas realidad por las tecnologías de Groq”, explicó Jonathan Ross, cofundador y CEO de Groq.

El chip posee módulos embebidos para incrementar sus capacidades de inferencias por segundo.

 

La forma en cómo funciona el hardware de aceleración de Groq tiene su eje primordial en sus capacidades para lograr un masivo paralelismo requerido por los sistemas de Aprendizaje Profundo sin la necesidad de sincronización entre CPUs y GPUs.

Otra de las características de la tecnología de Groq, es que en lugar de mantener los recursos de control en el propio chip, estos han sido asignados al propio compilador para que pueda ejecutar tareas de determinismo y predicción, una estrategia interesante para su entorno de software de gestión que permite de alguna forma desahogar la carga operativa del procesador.

Latencia mejorada en comparación con otras soluciones basadas en GPUs, afirman sus fabricantes.

 

Otra característica clave de Groq, es que su modelo operativo no se basa en el ‘batching’, una técnica común en ambientes de datacentersdonde se procesan múltiples muestras de datos a la vez para mejorar el rendimiento. De acuerdo con Groq, su arquitectura puede alcanzar el máximo desempeño incluso en batch = 1, un requisito común para las aplicaciones de inferencia que pueden estar trabajando en flujos de datos que llegan en tiempo real.

Con respecto a la latencia, los directivos de Groq afirman que el chip TSP ofrece una moderada ventaja de 2.5 veces de mejora sobre las GPUs en grandes tamaños de lotes, mientras que en batch = 1 la ventaja es más cercana a 17 veces, afirman.

- PUBLICIDAD -

Revisa también ...

Universidad Alemana ofrece taller gratuito de FPGAs

La Universidad Bonn-Rhein-Sieg (Alemania) liberó un taller de capacitación remota para diseño digital con FPGAs, …

NULL