Jueves , abril 25 2019

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
.
Home / Diseño Analógico / Una vez más discuten las limitaciones del actual HW para soportar IA

Una vez más discuten las limitaciones del actual HW para soportar IA

A la industria de semiconductores le sigue preocupando el creciente potencial de las redes basadas en Inteligencia Artificial ante la ineficiencia del actual hardware para soportar los requerimientos de estos sistemas.

ElectronicosOnline.com Magazine / Oswaldo Barajas

La industria de semiconductores continúa sumergida en un entorno pesimista frente al ritmo acelerado de evolución que registra la Inteligencia Artificial, pues reconocen que el actual hardware (HW) es incapaz de soportar el despliegue de innovación de estos sistemas.

   

A esta conclusión llegaron diversas personalidades de la industria y la academia que se dieron cita en el Symposia on VLSI Technology and Circuits 2018, llevado a cabo en Honolulu (Hawai) donde se atendieron importantes asuntos de este importante motor económico mundial, pero donde la mayor parte de la atención giró en torno al virtual estancamiento del hardware moderno.

Para los especialistas del segmento, la situación de los semiconductores tales como microprocesadores y otros circuitos electrónicos dedicados al procesamiento de datos es significativamente preocupante, ya que se están quedando atrás para otorgarle a las tecnologías como Machine Learning (ML), Redes Neuronales y Big Data, la capacidad para ejecutar de forma eficiente sus algoritmos.

El panorama futuro del hardware de procesamiento es complejo, y es por ello que ahora mismo ha emergido un gran desafío para la industria que debe resolverse a como dé lugar y encontrar alternativas que permitan al hardware elevarse a un plano superior en términos de eficiencia y potencia.

Para Naveen Verma, profesor investigador del Departamento de Ingeniería de la Universidad de Princeton, la comunidad científica y propia industria requieren cambiar su paradigma de desarrollo y centrar sus esfuerzos en otras alternativas, pues consideró que el ML es el punto de inflexión que representa el distintivo de las nuevas tecnologías y un área de rápido crecimiento, alcanzando que los algoritmos comiencen a superar incluso algunas de las capacidades de los humanos en una gran variedad de actividades.

El académico reconoció que si bien, la mayoría de semiconductores atraviesa por un estancamiento, las unidades de procesamiento gráfico (GPUs) han mostrado interesantes mejorías, ya que además de estar alineadas con la Ley de Moore (la cual parece estar llegando a su fin) han implementado exitosamente una especie de computación heterogénea que incluye la adaptación de Inteligencia Artificial a nivel de firmware para optimizar sus procesos, lo que les ha llevado a ser demandadas en múltiples mercados como vehículos autónomos, robótica, visión artificial, videojuegos y realidad virtual, por mencionar algunos.

- PUBLICIDAD -

“Pero todo esto no será suficiente”, puntualizó Naveen Vermn. “Estamos encaminándonos hacia el futuro. Yo diría que necesitamos hacer algo más, comprometernos más a fondo, impactando a cosas hechas en sus todos sus niveles”, dijo.

A esta postura se unió otro catedrático, Naresh Shanbhag, miembro del cuerpo docente de la Universidad de Illinois en Urbana-Champaign, quien en su intervención en el mismo congreso expresó que la industria de semiconductores ha pasado a un “asiento trasero” en el vehículo donde también viajan los investigadores y desarrolladores de sistemas y algoritmos de IA que están impulsando la revolución industrial.

En la imagen aparecen dos chips creados por el MIT diseñados para consumir diferentes niveles de energía al procesar algoritmos ML.
     

Al dirigirse a cientos de investigadores de dispositivos y circuitos que acudieron a la conferencia, Shanbhag admitió que sus contribuciones a la revolución de la IA se han visto obstaculizadas por una mentalidad autolimitada, basada en "nuestro papel tradicional como proveedores de componentes".

En el evento no solo discutieron los grandes retos técnicos, también se presentaron algunas propuestas interesantes que pudieran impulsar la innovación del hardware de procesamiento, tal fue el caso del propio Naresh Shanbhag, quien al fungir como director del proyecto académico Sistemas de Información a Nanoescala (SONIC) donde participaron múltiples instituciones universitarias el año pasado, se evaluaron requerimientos para las modernas redes computacionales, y detallaron que una de las soluciones podría ser la Arquitectura de Memoria Profunda así como otras apuestas no-tradicionales.

“Las soluciones tradicionales se están quedando sin vapor y en el muro de la memoria en las arquitecturas tradicionales de von Neumann que contribuyen al alto consumo de energía. Necesitamos desarrollar una perspectiva de los sistemas a los dispositivos para poder ser un jugador en el mundo de la IA”, destacó Naresh.

- PUBLICIDAD -

Revisa también ...

Con este novedoso caucho los neumáticos y los zapatos se auto repararán

Una nueva tecnología inventada en la Escuela de Ingeniería de la Universidad del Sur de …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *