Tuesday , November 19 2019

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
Home / Software Embebido / Recurren a código de los 80´s para optimizar poderoso chip de 49 núcleos

Recurren a código de los 80´s para optimizar poderoso chip de 49 núcleos

El prototipo fue diseñado por ingenieros del Georgia Tech y utiliza Aprendizaje de Máquinas para realizar las tareas de procesamiento. Gracias al algoritmo ochentero, el desempeño del chip es superior a muchos GPUs modernos.

ElectronicosOnline.com Magazine / Oswaldo Barajas

Científicos del Georgia Tech han tenido que desempolvar código creado en la década de los 80´s para optimizar un moderno y poderoso procesador de 49 núcleos que utiliza Inteligencia Artificial para resolver operaciones de alta complejidad.

En un informe publicado por la revista tecnológica IEEE Spectrum se indica que los ingenieros de esta casa de estudios comprobaron la utilidad de un algoritmo construido hace caso 4 décadas para incrementar el rendimiento de una arquitectura de cómputo dedicada al procesamiento de datos para sistemas basados en Machine Learning y ruteo para comunicaciones 5G.

Los responsables de este proyecto explicaron que el primer prototipo del procesador de nombre OPTIMO conformado por 49 núcleos en el que han estado trabajando desde hace algunos pocos años, observaron una deficiencia al momento de ejecutar algunas operaciones de cierta a mediana complejidad, principalmente aquellas que utilizan redes neuronales artificiales.

Por esta razón, los ingenieros se dieron a la tarea de agotar cualquier posibilidad en su portafolio de soluciones basadas en algoritmos y códigos, y entre el material que analizaron hallaron algunos algoritmos desarrollados hace años que sorpresivamente dieron los mejores resultados al implementarlos en el chip.

Del algoritmo, denominado Método de Dirección Alterna de Multiplicadores o ADMM, no se dieron mayores detalles de su composición, pero se compartió que utiliza una forma particular de trabajo, en la que quiebra o segmenta un gran problema complejo en pequeños problemitas menores y los asigna a ciertos módulos de procesamiento para no recargar el sistema, los cuales al terminar su trabajo lo vuelven a compartir para unir todos los resultados en uno solo.

- PUBLICIDAD -
El chip llamado OPTIMO de 49 núcleos diseñado para realizar tareas de IA y ruteo de comunicaciones, utiliza un algoritmo de la década de los 80s para optimizar su desempeño.

Este método operativo aunado a la estructura electrónica del procesador han conseguido que el prototipo más reciente del OPTIMO sea considerado incluso muy superior a las modernas tarjetas gráficas (GPUs) superándolas presumiblemente hasta por 4.77 veces más en términos de eficiencia energética y 4.18 veces más velocidad.

El informe subraya que el diseño de sistemas de Aprendizaje de Máquinas y una amplia variedad de otros sistemas dedicados para resolver tareas intensivas pueden ser considerados como un conjunto de problemas matemáticos clasificados en un grupo de optimización restringida.

En este sentido, el Dr. Arijit Raychowdhury, académico del Georgia Tech y participante del proyecto, refiere que en esta clase de estructuras de procesamiento tienen como objetivo simplificar una función bajo ciertas restricciones para hallar la tasa de error más baja en relación al tamaño de la red neuronal.

“Si se puede acelerar la optimización restringida utilizando una arquitectura inteligente y un diseño energéticamente eficiente, se podrá acelerar una gran clase de procesamiento de señales y problemas de Aprendizaje de Máquina”, comentó Raychowdhury.

Lo anterior es exactamente el modelo sobre el que trabaja el algoritmo ADMM, partiendo una gran pieza en pequeños trozos para ahorrar esfuerzo, tiempo y energía. “Si realmente deseas resolver un gran problema compuesto por una gran cantidad de datos -dígase un millón de puntos de datos con un millón de variables- ADMM te permite quebrarlos en pequeños sub problemas. Puedes simplificarlos a unas 1,000 variables con unos 1,000 puntos de datos”, agregó Raychowdhury.

El chip utilizado para probar el algoritmo ADMM se trata de una arquitectura con 49 núcleos y una red de tuberías para soportar un ancho de banda para transferencia de datos. El dispositivo podría escalarse para hacer su trabajo en la nube, en donde agregaría más núcleos virtuales para potenciar su rendimiento, o bien reducirse para resolver problemas más cercanos al borde de Internet, explicó Raychowdhury.

El trabajo de los académicos se encuentra de forma detallada en el artículo científico titulado: “New Silicon Revives An Old Algorithm”, el cual puede ser consultado desde la librería digital IEEE Xplore.

- PUBLICIDAD -

Revisa también ...

Famoso boxeador lanza su propia criptomoneda

El Filipino Manny “Pac-Man” Pacquiao debutó su propia criptomoneda bajo el nombre de “Pac”, en …