Miércoles , enero 17 2018

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
.
Home / Medición y Pruebas / Semáforo en rojo: ¿Cómo detectar ‘Bugs’ en vehículos autónomos?

Semáforo en rojo: ¿Cómo detectar ‘Bugs’ en vehículos autónomos?

Los coches que se manejan solos ya se observan circulando en muchas ciudades a nivel mundial, pero cualquier error aun no detectado podría poner en peligro la vida de los tripulantes. ¿Qué esfuerzos están haciendo las compañías para prevenir los riesgos?

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

Los vehículos autónomos son el hito tecnológico del momento. De estos se escucha hablar en la mayoría de los medios de comunicación globales, y su alcance promete llegar a la mayoría de las ciudades en los siguientes 10 años.

Compañías como Uber planean adquirir miles de estas unidades para desplegarlas en distintas metrópolis y así prescindir de los choferes humanos creando un modelo de negocios integral e innovador. Del mismo modo Google, a través de su subsidiaria Waymo; Tesla Motors, Mercedes Benz, Intel con su división Mobileye, y Amazon, ya han demostrado sus prototipos rodando en las calles.

Sin embargo, aunque este segmento se visualiza como un nicho enormemente lucrativo para las próximas décadas al ofrecer un nivel de comodidad nunca antes visto, funciones tecnológicas exclusivas y un entorno totalmente futurista, también resulta imperativo establecer desde ahora el modo en que las compañías y proveedores de tecnología, mantendrán la fase de detección de errores o fallas a nivel de sistema (bugs), ya que el hecho de experimentar ya con prototipos avanzados no exime que estas plataformas estén libres de errores.


El DeepXplore es la primera plataforma especializada en detectar errores de código en sistemas basados en redes neuronales.


Si bien es cierto que la mayoría de bugs atenta solamente a nivel de software en dispositivos de uso cotidiano, no llega a significar un peligro letal para los usuarios que los manipulan, como pueden ser errores de sistema que terminan simplemente en la avería del propio aparato o un comportamiento técnico anormal.

Pero si hablamos de los bugs que pudieran surgir en la Inteligencia Artificial (IA) automotriz, esto cambia totalmente las reglas de juego, pues cualquier excepción en el código podría ocasionar que la estructura de control del coche tome una mala decisión en el momento menos indicado, por ejemplo, girar en sentido contrario durante una curva peligrosa.

Adelantándose a este panorama, investigadores de la Universidad de Columbia y de la Universidad de Lehigh, presentaron una plataforma de depuración de código para plataformas automotrices basadas en IA bajo el nombre de DeepXplore, la cual tiene como objetivo realizar una exploración profunda en algoritmos de aprendizaje artificial para detectar en su estructura bugs de forma sistemática.


En esta ilustración aparece un modelo de red neuronal (izquierda) y también el cálculo ejecutado por cada una de las neuronas.


En el comunicado de prensa de la Universidad de Columbia, los científicos refieren que esta herramienta también utiliza modelos de aprendizaje profundo con el fin de alinearse al formato de los algoritmos de los vehículos autónomos, y con ello conseguir un muestreo confiable.

- PUBLICIDAD -
Mouser Electronics
Más de 1.9 millones de componentes electrónicos en línea.

Una de las razones que motivó al equipo académico de ambas universidades a crear el DeepXplore, fue la carencia de un método capaz de maximizar el número de neuronas dentro de una red neuronal, y al mismo tiempo desencadenar tantas decisiones conflictivas como sea posible entre diferentes redes neuronales para forzar el aparecimiento de los errores. Al asumir que la mayoría de las redes neuronales generalmente toman la decisión correcta, DeepXplore automáticamente reentrena la red neuronal que adoptó la única decisión disidente de seguir el ejemplo de la mayoría en un escenario dado, y es en esta sobre la que se concentran los parámetros de identificación y depuración.

“Esta es una plataforma de pruebas diferenciales que puede detectar miles de errores en vehículos autónomos y en sistemas similares basados en redes neuronales”, explicó Yinzhi Cao, profesor asistente del área de Ciencias de la Computación de la Universidad de Lehigh.

Después de presentarlo en la Conferencia sobre Principios de los Sistemas Operativos (SOSP 2017) que se llevó a cabo en octubre en la ciudad de Shanghái, China, el equipo responsable de este proyecto fue galardonado por crear el mejor artículo científico en su categoría, y por crear un sistema depurador exclusivo para una tecnología emergente, de rápido crecimiento y altamente complejo como son los sistemas IA.


La plataforma ejecuta un recolector de indicios anómalos en las neuronas, a través de gradientes que retroalimentan al sistema para detectar si alguna respuesta es contraria a las demás.


Cabe mencionar, que convencionalmente los algoritmos de aprendizaje profundo incrementan notoriamente su rendimiento al filtrar grandes cantidades de datos para el entrenamiento de sus redes neuronales, y esto a su vez, depende de un modelo establecido por los humanos quienes son los que crean las mejores respuestas según la elección mayoritaria, tal como ocurre con los algoritmos integrados a plataformas como Facebook para el reconocimiento de rostros, o Google, para adelantar una posible mejor respuesta en tareas de completamiento de frases o traducciones.

Los investigadores indicaron que esta forma de trabajar por parte de los sistemas de depuración para entornos expertos, también tiene una parte negativa, ya que los errores pueden ser igualmente demoledores si se aplican modelos IA en maquinaria pesada, por ejemplo, enormes barredoras urbanas que funcionaran con IA, en el que de manera repentina el sistema tomara una decisión errónea y se dirigiera hacia un vehículo estacionado, arrollara a los transeúntes o se estrellara contra el muro de un inmueble.

Conforme la tecnología autónoma acelera su paso en la industria y cada vez más sectores desean implementarla siguiendo el ritmo de compañías como Google, Tesla, Amazon, Uber o Intel, diversos organismos, empresas dedicadas a ofrecer servicios de medición y pruebas, e inclusive dependencias de gobierno, han externado su interés por conocer de forma puntual y precisa los riesgos de estas plataformas con el objeto de trabajar en programas preventivos junto con las compañías para evitar futuros errores catastróficos.

“Creo que impulsar una IA segura y confiable encaja muy bien en lo que hemos buscado de conseguir una IA más entendible”, expresó Suman Jana, profesora investigadora de la Universidad de Columbia. “La transparencia, explicación y solidez, deben mejorarse mucho en los sistemas de aprendizaje automático antes de que estos sistemas puedan comenzar a trabajar junto con los seres humanos, o que comiencen a funcionar en las carreteras”, puntualizó.

- PUBLICIDAD -
National Instruments
Construya un Sistema Robusto y Reconfigurable de Control y Monitoreo.

Revisa también ...

IoT recibe nuevos sensores inerciales más pequeños y precisos

Aun no se saca provecho a cabalidad de los sistemas interconectados basados en IoT, y ahora se ventila un nuevo modelo ultra futurista donde diversos procesos son administrados con los pensamientos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *