Jueves , junio 20 2019

Suscribete gratis a nuestro boletin semanal

VISIONA . DESARROLLADORES . CONECTADOS .

Suscribete nuestro boletin semanal

PATROCINADORES
.
Home / Automatización y Robótica / IEEE propone nuevo código de ética para sistemas AI

IEEE propone nuevo código de ética para sistemas AI

La cúpula representativa de ingenieros abrió un espacio de discusión para promover el diseño responsivo y ético de robots dotados con Inteligencia Artificial (AI).

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

Isaac Asimov no estuvo tan errado cuando postuló sus tres leyes de la robótica, conocidas también como las Leyes de Asimov, cuyo objetivo era y ha sido dotar a la industria de un código de ética aplicable al diseño de robots y con ello prevenir de una posible catástrofe a consecuencia de una rebelión de las máquinas.

Ahora, este sector ha avanzado a tal grado que la Inteligencia Artificial se ha convertido en el ente impulsor de un nuevo código de ética para el diseño de sistemas artificiales, propuesto por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) a través de su Asociación de Estándares en su afán por evitar que estos autómatas se salgan de control.

El documento que fue presentado bajo el nombre de “The IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems” está dirigido a las diferentes áreas que conforman el diseño y construcción de sistemas robóticos: ‘Machine Learning’, Computación Cognitiva, Inteligencia Artificial, Robótica, Computación Afectiva, programas basados en Algoritmos, ‘Deep Learning’ e Inteligencia Computacional.

“Estamos creando la visión de priorizar el bienestar humano con inteligencia artificial y sistemas autónomos, es por ello que necesitamos su ayuda. Nuestra intención es que al identificar problemas y sus posibles soluciones, esos principios eventualmente sirvan para apuntalar y soportar las futuras normas dentro de un nuevo marco de trabajo de gobierno ético”, menciona el documento de la IEEE.

Las armas militares son las máquinas más temidas en el escenario de los sistemas autónomos.
   

El cuadro propuesto está conformado por diferentes tópicos de interés en el que se observa una profunda valorización del tema por parte de los diferentes investigadores e ingenieros que intervinieron en la modelación de la iniciativa, ya que abordan problemas incluso de carácter social como los derechos que tienen las personas de sacar provecho de los robots para destinarlos a su beneficio particular.

- PUBLICIDAD -

Pero también los intereses industriales de las grandes corporaciones, los esquemas regulatorios de los gobiernos, la integridad y seguridad de las personas que interactúan con estos sistemas, así omo las diferentes metodologías que existen actualmente para crear máquinas avanzadas dotadas con inteligencia artificial.

En la sección de Principios Generales, la propuesta de la IEEE analiza distintos cuestionamientos: “¿Cómo aseguramos que los Sistemas Autónomos y la Inteligencia Artificial no infringen los derechos humanos? ¿Cómo aseguramos que AI/AS son responsables? ¿Cómo aseguramos que AI/AS son transparentes? ¿Cómo podemos extender los beneficios y minimizar los riesgos de AI/AS cuando esta tecnología está siendo mal utilizada?”, entre otras retóricas.

En el artículo también se ofrece a manera de ejemplo el caso de una variedad de artefactos militares que cuentan con algoritmos sofisticados y habilidades de aprendizaje artificial, que entre otras cosas están diseñados para colectar información incluso sin el consentimiento de las personas. También que funcionan como armas autónomas las cuales continúan siendo cuestionadas por diversas organizaciones internacionales y países que se oponen al despliegue de estos por considerarlos peligrosos.

Los robots humanoides también saldrían beneficiados con esta nueva iniciativa, ya que actualmente también son sistemas autónomos robustos.
   

Por otro lado, también humanoides que han sido creados con grandes recursos tecnológicos y que emocionalmente han cautivados a las personas debido a su realismo con el que están construidos, al grado que la primera reacción causada es de asombro, pero que en otras ocasiones despiertan un temor profundo, derivando de un estado conocido como “Valle Inquietante” una hipótesis en el campo de la robótica1 y animación por computadora en 3D que afirma que cuando las réplicas antropomórficas se acercan en exceso a la apariencia y comportamiento de un ser humano real, causan una respuesta de rechazo entre los observadores humanos.

“Tenemos que asegurarnos de que esas tecnologías estén alineadas a los humanos en términos de valores morales y principios éticos para beneficio cabal de su potencial. AI y AS tienen que comportarse de una forma que beneficien a la gente más allá de conseguir ciertos objetivos y resolver problemas técnicos”, subrayaron los colaboradores de IEEE.

- PUBLICIDAD -

Revisa también ...

Cómo mejorar el control cinemático de los robots

A través de un artículo el especialista en electrónica analógica, Steve Taranovich, sugiere reemplazar las …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *