lunes, 21 de noviembre de 2016

¿COMO ACTÚA LA INTELIGENCIA ARTIFICIAL EN UN COHE ROBOTIZADO?.

¿Cómo actuará un coche autónomo ante un accidente inevitable?.
En Inteligencia Artificial, película oscura y visionaria ideada por Stanley Kubrick pero dirigida varios años después de su muerte por Steven Spielberg, el niño robótico protagonista es incapaz de entender porqué algunas de sus decisiones -que él considera correctas en base a los parámetros para los que ha sido programado- son malinterpretadas por los humanos. La posibilidad de que las máquinas intenten reproducir nuestras emociones y juicios morales es presentada como una distopía en la que no salimos muy bien parados. Tal vez porque la lógica y las construcciones sociales -cambiantes y hasta contradictorias- nunca mezclaron bien. Sin embargo, cuando se acerca cada vez más el tiempo en el que muchas de las tareas cotidianas serán hechas por robots, es necesario preguntarse cómo responderán ante dilemas éticos. ¿A quién salvará un robot de rescate en caso de tener una sola posibilidad: a un niño o a un adulto? ¿Y en qué algoritmo moral estará basada esa decisión? ¿Qué hará un coche autónomo: atropellará dos peatones para salvar la vida de su conductor o su decisión será optar por el mínimo daño? Hace unas semanas, el fabricante alemán Mercedes (que está investigando en coches completamente autónomos) levantó un gran revuelo cuando Christoph von Hugo, directivo de la marca, argumentó: “Si sabes que puedes salvar al menos a una persona, sálvala. Salva a la persona que está en el coche. Si de lo único que tienes seguridad es de que puedes prevenir esa muerte, esa debe ser tu prioridad”. Que tiemblen los peatones…
Por supuesto, no todo el mundo está de acuerdo. De hecho, mientras los fabricantes de automóviles y las empresas de tecnología se afanan en colocar sensores cada vez más precisos y mejorar las capacidades de conducción de los vehículos, hay científicos que ya trabajan para resolver este gran dilema moral. Se trata de conseguir que las máquinas se representen de la mejor forma posible cuál sería el comportamiento de un humano en las distintas situaciones para poder reproducirlo. Aunque aquí tampoco hay consenso absoluto. El equipo dirigido por Iyad Rahwan en el MIT lleva tiempo trabajando en las interacciones entre las ciencias sociales y la inteligencia artificial. Fruto de estos trabajos es una web (http://moralmachine.mit.edu/hl/es) en la que, a  través de distintas preguntas, tratan de establecer cuál sería el comportamiento más adecuado  que debería tener un coche sin conductor desde un punto de vista moral para la mayoría. Y lo primero que han detectado, asegura Rahwan es que “casi por unanimidad la gente quiere coches que minimicen los daños totales. El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: nunca compraría un coche que me pudiera hacer daño a mí bajo ninguna circunstancia”.
Las investigaciones de Rahwan parecen demostrar que los humanos nos guiamos en demasiadas ocasiones por esa máxima marxista (de Groucho) en la que afirmaba: “estos son mis principios, si no le gustan, tengo otros”. Por eso, él cree que “al dejar cada vez más decisiones en manos de máquinas, al mismo tiempo debemos desarrollar también un contrato social entre la gente y los algoritmos que toman esas decisiones importantes. Para supervisar su comportamiento, hacerlos responsables y poder desenchufarlos si se da el caso”.
SI TIENE QUE HABER MUERTES EN UN ACCIDENTES, PUEDE MATAR EL CONDUCTOR-DUEÑO Y SI ES EL MENOR DAÑO EN UN ACCIDENTE, ASI ESTÁ PROGRAMADO.

No hay comentarios:

Publicar un comentario