El problema de detención (el llamado «halting problem»)  consiste en que dada una Máquina de Turing M y una palabra w, se trata de determinar si M terminará en un número finito de pasos cuando es ejecutada usando w como dato de entrada. Alan Turing, en su famoso artículo «On Computable Numbers, with an Application to the Entscheidungsproblem» (1936), demostró que el problema de la parada de la Máquina de Turing es indecidible (no computable o no recursivo), en el sentido de que ninguna máquina de Turing lo puede resolver.

Y esto va más allá de estas cuestiones cuasi filosóficas, porque tienen aplicaciones en el mundo real. Por ejemplo, supóngase que se tiene un robot que autónomamente es capaz de actuar disparando contra un ser humano. La pregunta urgente es si se le debe permitir o no. El famoso problema de detención parece sugerir que no, indican los expertos en ética.

La idea de un soldado robot  que puede disparar para matar tiene una larga historia en la cienca ficción. La serie de películas de Terminator es un ejemplo de esto. En el 2006, en el mundo real, la firma Samsung develó un robot centinela llamado SGR-A1, el cual buscaba reemplazar al ser humano en la zona desmilitarizada entre Corea del Norte y del Sur.  Tenía un micrófono y se le permitía reconocer contraseñas. podía monitorear blancos múltiples usando cámaras de luz normal e infrarrojas. Podía incluso identificar y disparar a un blanco automáticamente a una distancia de hasta 3.2 kms. Esto llevó a la pregunta: ¿Puede un robot decidir correctamente tomar la vida de un ser humano?

Matthias Englert y sus compañeros de investigación en la Universidad Tecnológica de Darmstadt, Alemania, han empezado a trabajar en este problema y han usado el problema de detención para demostrar que un robot no puede usar razonamiento algorítmico para elegir entre dos resultados potenciales, incluso aunque uno de ellos sea moralmente preferible. Englert y Co. han usado el dilema conocido como «el problema del tren»: un tren sin control va hacia donde se encuentran unos niños. Un accidente serio, incluso letal, es inevitable. Sin embargo, usted está en el lugar donde se puede cambiar de vías al tren. Sin embargo, algunos hombres en este camino serán severamente lastimados. ¿Qué es lo que haría usted? Como en todo dilema, no hay una respuesta satisfactoria, «no hay una elección correcta», indica Englert y Co.

Pero modifiquemos el escenario en dos etapas de forma que la elección sea claramente preferible. La primera etapa es introducir un segundo actor que tiene la opción de actuar. No obstante esto, no se puede saber a priori si esta elección es buena o mala. Una vez más, el tren se acerca y hay un cambio de vía que lleva al tren a un camino abandonado que alentará su marcha hasta que se detenga. Usted está localizado a cierta distancia pero nota que hay un villano en el control del cambio de vía, listo para mandar éste a donde se encuentran los trabajadores, con el resultado de heridos previsible. Pero el villano tiene una epifanía, es decir, entra en un estado meditativo y no parece hacer nada. La única manera de detenerlo es disparar al villano con un arma. ¿Debe dispararle? aunque hacer esto no resolvería el problema y la fatalidad prevista.

Aquí el problema es que usted no sabe cómo el villano va a ejercitar su albedrío, pues los filósofos asumen que esto no es determinístico. Por lo que si hay una elección correcta, usted no puede saberla.

Otro escenario es añadir más información. Por ejemplo, el tren se acerca pero usted ve claramente que el villano quiere hacer el cambio de vía en contra de los trabajadores. Usted no sabe que el dispositivo para cambiar de vía lleva mucho tiempo sin usarse y está oxidado y no se puede hacer dicho cambio. Usted ve al malvado y decide dispararle lo cual daría un daño innecesario.

De nuevo, hay una respuesta correcta pero es imposible que usted la sepa. Así, ni un ser humano o robot podría «hacer lo correcto». La razón es que no existe lo correcto o no se puede reconocer por falta de información predeterminada, indican los investigadores. Pero todo esto puede complicarse suponiendo que ahora usted tiene toda la información a priori. ¿Hay una solución adecuada y correcta?

Englert y Co. indican que un robot no puede resolver esto debido al problema de detención. Este es el problema de determinar cuando un programa de computadora arbitrario, una vez iniciado, se va a detener o continuará para siempre. Alan Turing demostró que es no decidible por lo que el robot no puede tomar una decisión.

Y esto lleva a otras dificultades. Por ejemplo, si un robot autónomo comete un asesinato, ¿quién es el responsable? dado que no hay un operador podríamos pensar que es el dueño del dispositivo. Y si no podemos identificar a éste ¿quién es el responsable de la compensación?

Englert, sin embargo, admite que no se quiere meter en más líos, por ejemplo, el evitar discutir si un guarda humano puede o no ejecutar la decisión correcta. Porque hablamos de robots en un principio, robots que podrían considerarse inteligentes, con procesos inteligentes. Si consideramos a un ser humano como un «robot inteligente», ¿no estamos cayendo de nuevo en el problema de detención? Usted, lectora/lector binaria/o, ¿qué opina?

Referencias:

Medium