En Internet un video se ha hecho viral: se trata de una demostración de una empresa en Estados Unidos, que tiene una serie de drones con un poder letal: pueden disparar una pequeña carga contra una persona, identificada a través de la Inteligencia Artificial, y así deshacerse de un enemigo sin siquiera poner la vida de un tirador en peligro. Sin embargo, este escenario de ciencia ficción puede ser una muy mala idea, pues el uso del mismo en malas manos puede ser peor que la solución que propone.

El video en cuestión ha sido muy criticado por un número importante de programadores, los cuales han iniciado una campaña para detener a los robots asesinos y hacer un veto indefinido contra las armas letales autónomas. De hecho, en principio se parece al problema de los sistemas que diagnostican de forma autónoma enfermedades. Si usted lector, lectora, fuese el paciente, ¿le haría caso a un sistema automático y al diagnóstico que presentara? ¿No esperaría que hubiese un ser humano responsable del diagnóstico y del tratamiento? Pues lo mismo parece ocurrir aquí. Si se programa un dron, que lleva una pequeña carga letal, la cual dispara contra un ser humano en particular, que sería reconocido por algoritmos de visión por computadora, ¿hay un criminal humano atrás? ¿No se daría a abusos? ¿Y si el dron se equivocase de objetivo, a quién se le responsabilizaría de una muerte equivocada?

¿Por qué los seres humanos encuentran más atractivos los robots que se equivocan?

Por ello, el Instituto del futuro de la vida, quien apoya a estos programadores que están en contra de estas armas autónomas, quieren que el ciudadano apoye la propuesta del veto firmando una propuesta. También piden a los ciudadanos que escriban misivas al respecto a sus representantes. Y aunque estas parecen buenas ideas, esto no va a detener a los “bad hombres” en la creación de precisamente este tipo de armas. Vamos, que si los buenos tienen acceso a las mismas, no hay razón alguna para que los malos no puedan tenerlas. La tecnología no puede ser des-inventada.

Enlaces Patrocinados
Comentarios