Tuesday , November 19 2019

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
Home / Software Embebido / ¿Cómo funcionan los chips Nvidia con Deep Learning?

¿Cómo funcionan los chips Nvidia con Deep Learning?

La compañía ha sido una de las pioneras en integrar Inteligencia Artificial avanzada en su hardware de procesamiento, lo que la coloca en un sitio privilegiado en la escala de innovación.

ElectronicosOnline.com Magazine / Oswaldo Barajas

Nvidia se ha convertido en una de las compañías más reconocidas en la industria electrónica debido a su agresivo modelo de negocios que ha impulsado en los últimos años y que la ha llevado a consolidarse como una de las firmas más innovadoras al integrar Inteligencia Artificial avanzada en sus chips de procesamiento gráfico (GPUs).

Pero ¿cómo funciona su estructura IA dentro de sus chips? Es interesante evaluar que el equipo de ingeniería de Nvidia ha alcanzado niveles sorprendentes de innovación y entre otras cosas ha conseguido que sus módulos experimentales embebidos puedan agruparse dentro de la arquitectura de los procesadores para saber en qué momento adaptarse a una carga ligera de trabajo o readaptarse automáticamente ante una carga de trabajo alta sin sacrificar la eficiencia del sistema.

Su tecnología ha sido calificada por analistas de la industria como la única solución identificada para batir los requerimientos principalmente en materia de flexibilidad tecnológica en segmentos como datacenters y sistemas operados vía comandos de voz a través de asistentes inteligentes, los cuales utilizan redes neuronales para procesar dichos comandos.

Representantes de Nvidia, como Bill Dally, ingeniero que participa en el equipo de Investigación y Desarrollo (I+D), quien indicó que en la actualidad muchas compañías necesitan adquirir múltiples tecnologías para alcanzar sus niveles óptimos de escalabilidad, sin embargo, las soluciones que últimamente ha desarrollado Nvidia permiten a esas empresas ahorrar significativamente recursos de sus presupuestos al ofrecer en un solo producto lo que requieren sin la necesidad de acompañarlos por otras tecnologías adicionales.

- PUBLICIDAD -
La tecnología de Nvidia utiliza Aprendizaje Profundo para designar tareas complejas y así no cargar al sistema de procesos que incrementen el uso de energía o recursos.

"¿Puedes construir algo escalable... y al mismo tiempo mantener un rendimiento competitivo por Voltio en todo el espectro?", cuestionó Bill Dally, quien respondió a su retórica con su “sí”. Durante un congreso de tecnología celebrado en Kioto (Japón) el pasado mes de junio, Nvidia reveló detalles acerca de su más reciente arquitectura para chips, la cual puede trabajar por su cuenta para realizar trabajos de gama baja o estar estrechamente vinculado con hasta 36 de sus familiares en un solo módulo para realizar el trabajo pesado utilizando Deep Learning, haciéndolo con aproximadamente el mismo rendimiento que los de primera clase.

Se trata de un módulo acelerador diseñado para implementarse en una variedad de sus chips que ya se encarga de todo el ciclo de Aprendizaje Profundo en lugar de solo llevar a cabo tareas de entrenamiento de redes neuronales artificiales.

Los ingenieros generalmente suelen medir el rendimiento de los chips inferenciales a partir de la cantidad de operaciones que pueden realizar por Joule de energía o por milímetro de área. En este sentido, colaboradores de Nvidia detallaron que un solo módulo acelerador puede alcanzar un pico de hasta 4.01 Tera-operaciones por segundo (TOPS) (1,000 millones de operaciones por segundo) y hasta 1.29 TOPS por milímetro.

En relación a la eficiencia, Nvidia señaló que su tecnología es al menos 16 veces más área-eficiente y 1.7 veces más eficiente de energía, de lo cual describieron como la clave para ser más poderoso al no tener que manejar directamente matemáticas complejas, ciertos problemas de la DRAM y otras formas que requieren más recursos del procesador como son las redes neuronales convolucionales.

Con sus trabajos de investigación, Nvidia ha demostrado que es posible operar módulos multichip en redes tipo malla para delegar tareas específicas a otros módulos para desahogar al propio procesador de una manera automática e inteligente, a través de módulos aceleradores que son esencialmente pequeñas placas de circuitos impresos o trozos de silicio que contienen múltiples chips de manera que pueden ser tratados como un gran circuito integrado.

- PUBLICIDAD -

Revisa también ...

Famoso boxeador lanza su propia criptomoneda

El Filipino Manny “Pac-Man” Pacquiao debutó su propia criptomoneda bajo el nombre de “Pac”, en …