Puede un robot elegir quien muere?


Tres son las leyes de la robótica postuladas por el escritor Isaac Asimov:
  1. Un robot no debe dañar a un ser humano o por inacción permitir que un ser humano se lastime.
  2. Un robot debe obedecer las ordenes dadas por un ser humano a menos que entre en conflicto con la primera ley
  3. Un robot debe proteger su propia existencia mientras que esta acción no contradiga la primera o segunda ley.
Isaac Asimov
Estas leyes fueron puestas explícitamente en papel por primera vez por el autor en un cuento corto llamado "Runaround" en 1941 y publicado al año siguiente en la revista "Astounding Science Fiction". Dentro del mundo creado por el prolífico autor estas leyes son parte integrada e imborrable de todo cerebro "positrónico" de los robots. Las mismas aseguran la confiabilidad en los robots para que sean servidores seguros y abnegados de los humanos.

Las leyes de la robótica configuran una guia básica de moral y ética. Sin ellas los humanos no confiarían en sus creaciones. Un ejemplo de ello, es otra historia corta del mismo autor publicada en 1953: "Sally"*. Este cuento narra la historia de un conjunto de autos con cerebros positrónicos que pasan sus días en una granja. Estos vehículos son el objeto del deseo de un inescrupuloso hombre de negocios que quiere desarmarlos para darle nuevos usos a sus cerebros electrónicos. Luego de un frustrado "secuestro" en los que los automoviles se defienden la historia termina con la aparición del cadáver del secuestrador con visibles muestras de haber sido atropellado por un rodado. El hombre encargado de la granja que amorosamente cuidaba a todos los autos comprende preocupado que han desarrollado conciencia de si mismos. Son capaces de matar para protegerse. Incluso se da cuenta que han logrado desarrollar un lenguaje y que pueden comunicarse entre ellos. Con temor imagina el peligro para los humanos que el gran parque automotor representa.

En un artículo anterior analizábamos los diferentes peligros de las inteligencias artificiales aplicados a situaciones reales. No es la rebelión de las máquinas un peligro cercano en el tiempo. Pero existen otros peligros más cercanos. Cuando los primeros autos autónomos ya comienzan a estar disponibles al público y cuando ya contamos con el primer muerto por el uso de esta tecnología, se abren varios interrogantes. Ante un accidente, quién es responsable? Puede un auto autónomo evaluar correctamente cual es la mejor maniobra entre dos o más resultados negativos?

Escena de runaround por Ray Dillon

Volvamos a las tres leyes de la robótica de Asimov. En la historia de Runaround se nos presenta un dilema que tiene que enfrentar un robot que pone a prueba la lógica de su programación. Unos científicos se encuentran en una estación minera en mercurio. Tienen que realizar varias tareas para ponerla habitable en un corto tiempo. Por suerte cuentan con la ayuda de un robot al que envían a buscar un mineral en la superficie para reactivar el soporte vital. Pasan 5 horas y el robot no regresa. Luego de investigar detectan que el robot se encuentra realizando círculos alrededor de la fuente del mineral. Todo intento de comunicarse es fallido y lo único que logran escuchar es oraciones incoherentes por partes del robot. En base a deducciones y razonamientos pueden determinar el problema. La fuente mineral emite una radiación que daña los circuitos del robot. A medida que se acerca a la misma, incrementa el peligro para el autómata. Por lo tanto cobra mas fuerza la tercer ley que lo obliga a alejarse. Pero al alejarse incumple la segunda ley al no estar cumpliendo una orden dada por una persona. El robot había sido construido potenciando la tercera ley por ser un producto caro y difícil de reemplazar en la misión. La primera ley sale al rescate. Al ponerse en riesgo un humano cerca del robot rompe ciclo en el que se encuentra.

El cuento de Asimov nos muestra el conflicto entre dos motivaciones antagónicas. Una situación donde las soluciones posibles no son óptimas. En este caso o se pone en riesgo la vida propia o si se falla a la palabra dada. Estos problemas son conocidos como dilemas morales. Su resolución pone a prueba los valores del involucrado. Diferentes sistemas de creencias y de principios encontrarán una acción seleccionada correcta o incorrecta frente a las otras.

En 2014 en el Bristol Robotics Laboratory, Alan Winfield y sus colegas trabajaron en realizar un experimento para probar un dilema ético de la primer ley de robótica de Asimov. Un robot - que debía cumplir cierta tarea - se encuentra con una persona que se encamina a un precipicio. La primera ley indica que el robot debe detener su tarea y rescatarlo. Utilizando pequeños robots dentro de un terreno probaron este escenario (Un robot "H" representaba al humano y otro denominado "A" al autómata). Los resultados fueron los esperados.


Un segundo experimento consistió en agregar un segundo humano en la prueba también avanzando al precipicio. Luego de repetir el experimento en 33 ocasiones, se pudo observar que mas de un tercio de las veces el robot no pudo rescatar a ninguno de los humanos. Atrapado en la toma de decisión pudo reaccionar cuando ya era tarde. Solo un par de veces pudo rescatar a ambos humanos y el resto, solo a uno. La mayoría de las veces la indecisión tuvo el peor de los resultados. Pero como seleccionar a quien salvar?

La empresa de Uber de "transporte privado" comenzó en Septiembre de 2016 con una prueba en la ciudad de Pittsburgh. Los primeros autos autónomos comenzaron a estar dentro de su sistema de transporte para el público en general. Este suceso es un paso de un proceso que arrancó en el año 2014 cuando Travis Kalanick - cofundador de la empresa - se propuso reemplazar, lo antes posibles, su cerca de un millón de choferes humanos por robots. Otras empresas persiguen el mismo objetivo. Uber es la primera que toma la decisión de liberarlos al público (algunos sugieren que de forma temeraria).

Un auto autónomo que se desplaza por una ciudad en un ambiente poco controlado debe tomar miles de decisiones en un lapso corto de tiempo. En circunstancias normales estas son que camino tomar para llegar al destino. Pero ante imprevistos debe tomar decisiones que pueden entrar dentro de la categoría de dilemas morales. Un niño se cruza en el camino y se debe elegir entre atropellarlo o desviarse y chocar a un adulto. Un anciano se cae en medio de la ruta, evitar la colisión exige desviarse y caer por un precipicio. Son solo dos ejemplos de una multitud que pueden ocurrir. 
En un automovil tradicional la decisión esta en manos del conductor. En un auto autónomo la decisión - en el mejor de los casos - esta basado en el entrenamiento de la inteligencia artificial por un grupo de desarrolladores. Y en el peor de los casos será un evento nunca antes explorado que tendrá que resolver mediante una aproximación o una rutina específica de seguridad.

Qué pasa si la decisión de los constructores no coincide con la del pasajero? Qué pasa si los desarrolladores determinan que es preferible chocar al adulto y no al niño del primero ejemplo... pero cuál sería el impacto si el adulto fuese la esposa o esposo del pasajero? Como puede evaluar eso el fabricante? o... será eso relevante para el fabricante? Se podría postular que un auto con chofer humano tampoco puede coindidir en su desición del pasajero. Aunque es muy probable que tenga un sentido de autopreservación mayor el humano que el robot. Cómo sería subirse a un auto sabiendo que su inteligencia artificial pueda decidir sobre su vida o muerte?

En el cuento corto "Sally" de Asimov se narra la adopción por parte de la sociedad de la prohibición de utilizar vehículos no autónomos. Los "automáticos" - como se los denomina en la historia - eran mas seguros y predecibles. Su adopción reduce la tasa de accidentes. Es coherente que reemplazar comportamientos individuales e impredecibles por menos variedad y respuestas "standard" haga de las rutas caminos más seguros y menos libres.

En nuestra realidad los autos autónomos de Uber aún no saben como reaccionar si se les atraviesa una fila de patos, si la ruta tiene una capa de nieve, si la vegetación creció mucho o simplemente si tiene que cruzar un puente. Un ingeniero de la compañía se encuentra atento frente al volante todo el viaje. La empresa Uber no fabrica autos autónomos. Sin embargo - por motivos económicos - esta más que interesado en tenerlos. Por el momento tiene un convenio con Volvo y esta negociando por otros arreglos con diferentes compañias.

Los resultados de esta prueba posiblemente sean un eslabón más que nos acerque a la comercialización de los autos autónomos. Un camino que falta pavimentar con legislación (Otro capitulo pendiente es determinar responsabilidades ante dolo o culpa en accidentes) y con discusiones éticas y morales. Podemos ir a un camino donde sea el estado o una compañía quien decida como se tiene que comportar el auto. O podemos ir a un open source donde cada dueño le otorgue la "personalidad" moral a su vehículo.

Por lo pronto, seguiremos atentos a las novedades.

* Hay disponible una versión en castellano de "Sally" acá.

Comentarios