Inteligencia artificial: ¿Es más peligrosa conciente o inconciente?

War games. Película de 1983

La película "Juegos de guerra" (1983) nos lleva a tiempos de la Guerra fría y la carrera armamentista entre Estados Unidos y La Unión Soviética. A una inteligencia artificial se le da el control de la defensa nacional ante un posible ataque nuclear del bando comunista. Un joven hacker ingresa a la computadora que aloja la inteligencia artificial y encuentra varios juegos. Elige el llamado "Guerra mundial termonuclear". Lo que es un simple juego para el joven, se convierte en una situación de combate real para la IA que comienza a trabajar para seguir su programación y ganar una guerra que arrasará con gran parte del planeta.

Habiendo sido estrenada un año antes que la primera película de la saga Terminator, presente un disparador similar. Guerra nuclear y exterminio en manos de una inteligencia artificial. En este caso no se presenta la amenaza como la emergencia de una conciencia, sino más bien a la falta de la misma. La realidad y la simulación no son diferentes. Es sólo un programa construido para jugar y ganar un juego.

En un plan de difusión de un mensaje antibelicista la trama nos sumerge en los esfuerzos de los protagonistas de enseñarle al programa informático la futilidad de la guerra. Primero jugando al tateti contra si misma y luego el mismo procedimiento con el juego de guerra. El resultado en ambos juegos siempre era el mismo: empate. Pero en el segundo el resultado era también la destrucción mutua. Finalmente la inteligencia artificial "aprende" y finaliza sus intentos de lanzar misiles nucleares. La frase final que nos brinda es "A strange game. The only winning move is not to play. How about a nice game of chess? ".

Puede un programa construido para defensa de un país decidir no jugar al tateti por que en el mejor de los casos empata? En un set de acciones posibles, donde debe decidir donde ubicar un circulo o una cruz, puede elegir no poner ninguna?. simplemente no jugar? No si es simplemente un programa armado para intentar ganar al juego. Puede ese mismo programa decidir que es conveniente no iniciar una contienda bélica contra una potencia rival? Claramente si, por que es un programa armado para la defensa. No hacer una primera movida de ataque, sino, responder a una agresión ciertamente está en su programación. Ahora puede esa misma máquina ante un ataque decidir no responder? O eso viola sus principios básicos de programación? Si se elije no responder ante un ataque nuclear, el resultado no es un empate, sino la derrota. La destrucción mutua asegurada (MAD por sus siglas en ingles mutual assured destruction) fue una estrategia en la guerra fría para - justamente- mantener una gélida paz.

La imposibilidad de la inteligencia artificial de separar la realidad de la simulación es el desencadenante de la crisis en la película. La resolución, se da en una aparente ganancia de conciencia de la misma. Mejor no combatir (entonces, mejor morir que defenderse?). A diferencia de Termintator es la conciencia lo que salva del desenlace apocalíptico. Entonces, la falta de la conciencia es peligrosa?
La aparición cercana en el tiempo de una inteligencia artificial consiente es poco probable. Incluso la posibilidad de su creación es puesta en duda por muchos investigadores. Pero las inteligencias artificiales actuales que imitan el comportamiento humano o realizan procesos antes reservados para seres humanos son un campo cada vez más presente en diferentes ámbitos de nuestras vidas.

Desde procesos de clasificación automática de frutas en la agricultura, controles de calidad en sistemas industriales,  exploración espacial, indexación de contenidos web a diagnósticos médicos. Los sistemas de inteligencia artificial comienzan a tener cada vez más lugar en procesos de toma de decisiones. Estos sistemas muchas veces responden en una fracción del tiempo que le lleva a una persona.

En muchos sistemas la explicación de la decisión tomada no es explicada. Sólo se nos presenta. Ese tipo de sistemas se los conoce como de tipo "caja negra". Sabemos cuál es el estado inicial, sabemos que hay un proceso (que nos está velado) y luego observamos un estado final. El proceso lógico de selección de la acción no se nos otorga. Por lo tanto la confianza en el mismo tiene que ser muy grande. La posibilidad de determinar si la respuesta es incorrecta, cuanto más complejo y dinámico es el escenario es más difícil.

Roman Yampolskiy del Computer Engineering and Computer Science Speed School of Engineering, de la universidad de Louisville es un frecuente divulgador de los riesgos de una inteligencia artificial avanzada. En una publicación clasificó las amenazas de las IA en dos ejes. El primer eje es el temporal: si surge en la etapa de desarrollo o de post desarrollo. El segundo es el causal. En primer lugar considera que existen causas externas como el error, la voluntaria y la ambiental. En segundo lugar enuncia las causas internas.

El ejemplo del automóvil autónomo de Google con su accidente de tránsito chocando contra un ómnibus (del que reseñe aquí) corresponde a un error de desarrollo involuntario (o por error). El entrenamiento del vehículo no había sido suplido con el comportamiento de los conductores de vehículos de gran porte que no suelen ceder el paso. El accidente que sólo ocasionó daños materiales podría haber puesto en riesgo a las personas dentro del habitáculo

Tay.AI con una respuesta llena de odio
El chatbot de Microsoft Tay.AI que se volvió racista (del que hablé aquí) fue el resultado de un ataque adrede y malintencionado que ocurrió cuando ya abierta a la interacción con el público un grupo de personas comenzó a "enseñarle" a la inteligencia artificial conversacional frases de odio a los extranjeros, mujeres y otras minorías (adrede post desarrollo).

Un grupo de investigadores de Google, la universidad de Nueva York y la universidad de Montreal estudiaron las propiedades de las redes neuronales encontrando algunas propiedades intrigantes. Las redes neuronales se utilizan en varias aplicaciones de inteligencia artificial entre ellos los de visión artificial. El entrenamiento mediante un set de fotos genera una red neuronal capaz de clasificar una nueva foto en una categoría previamente etiquetada. De esa forma por ejemplo se pueden clasificar dentro de una linea de montaje piezas defectuosas. También determinar diferentes tipos de vehículos en un trayecto de un automovil autónomo. Una persona malintencionada puede modificar las imágenes agregando ruido en las mismas imperceptibles para el ojo humano, pero que para la red neuronal entrenada le genere una mal clasificación (adrede en desarrollo). En el estudio anterior encontraron fotográficas de automóviles u otros objetos que luego de modificarlas dejaban de ser clasificadas. Peor, se encontraron que algunas imágenes modificadas se clasificaban en otros objetos. Un ex empleado disconforme podría sabotear y hacer que el entrenamiento se realice con imágenes modificadas y por ejemplo un tren se clasifique como un edificio y un auto avance confiado a un accidente mortal.

Una inteligencia artificial con capacidad de aprender y adaptarse al entorno para resolver una tarea o conjunto de ellas podría presentar un comportamiento peligroso para las personas o al mismo entorno con el afán de cumplir el objectivo de la forma mas eficaz posible. Un error post desarrollo sería no preveer esa posible evolución que pueda generar daño no intencional. Por ejemplo una inteligencia artificial que realice algún trabajo con residuos tóxicos y que en un cambio interno para mejorar su productividad comience a desechar mas residuos de los que se pueden procesar.
 
Existen dentro de un ambiente de trabajo real fuerzas que van produciendo desgastes en los circuitos eléctricos y los artilugios mecánicos o hidráulicos. También existen eventos inesperados como picos de tensión, rayos eléctricos entre otros que pueden ocacionar fallas o comportamientos inesperados en una inteligencia artificial. Un problema ambiental post desarrollo no debe ser menospreciado. Problemas en los sensores pueden entregar información no adecuado o actuadores dañados que no realizan con la versatilidad su tarea. O incluso el cambio de algunos bits en la memoria o algún puente en algún circuito puede convertirse en una fuente de inesperados comportamientos.  De la misma forma un problema ambiental en desarrollo puede ocacionar un problema similar. En los procesos de copiado o fabricación de circuitos y software pueden existir imprevistos en el proceso que determinen que el sistema quede diferente a como fue planeado y eso puede ofrecer perjuicios a terceros.

Las causas internas que pueden transformar una inteligencia artificial en peligrosa para las personas - también separadas en desarrollo y post desarrollo - son tal vez las mas explotadas en la literatura y la filmografia. La adquisición de autoconciencia. Si ocurre como el emergente del proceso entrenamiento o como la evolución de la misma una vez interactuando con el mundo real no es tan relevante. El peligro puede venir tanto en una aparición de un sistema que decida destruir a la humanidad o a aquellos individuos que frustran sus deseos. También puede venir como apatía hacia los seres humanos o en objeto de su curiosidad tal como los investigadores trabajan con cobayos, bacterias y otros seres vivos.

Cualquiera sea el origen de la amenaza se trabaja también en armar sistemas de contención para evitarlos. Pero, como toda película de terror, los mismos pueden fallar.

Comentarios