La ONU se cuestionará el límite del poder de decisión de los robots

Esta misma semana la comunidad internacional se ha metido de lleno en uno de los asuntos que más ha inspirado la imaginación de los autores de ciencia ficción. Desde el lunes, 13 de abril, la ONU va a tratar una cuestión que suena tan surrealista, pero que es tan realizable con la tecnología actual, como los ‘robots asesinos’ o LAWS (Sistemas de Armas Autónomos Letales).

La reunión se desarrollará en Ginebra y abordará cuestiones legales y éticas, tratando de llegar a un acuerdo sobre el no desarrollo de este tipo de tecnología y cuestionando la responsabilidad de un acto de estas características. Recordemos casos en los que la ficción ha simulado casos de este estilo, como la propia saga de Terminator o el caso de Futurama, donde un Santa Claus robótico evaluaba autónomamente la bondad o maldad de las personas –con unos criterios excesivamente estrictos- y les castigaba o premiaba en consecuencia.

De este encuentro, cabe reflexionar sobre el lugar al que está llegando la tecnología y el desarrollo de software en la actualidad. Cientos de objetos electrónicos toman ya decisiones por sí mismas, en función de una serie de criterios programados previamente, aunque de momento ninguno de ellos- que sepamos- decide sobre cuestiones tan trascendentales. Desde la aspiradora que se para y regresa a su cargador cuando ya ha limpiado toda la casa hasta el Apple Car, que está en vía de desarrollo.

Teniendo en cuenta que la base de un sistema informático es que realice diversas funciones por nosotros, que las calcule y nos dé un resultado, debemos pensar cual es el límite ético o seguro al que puedan llegar. Por una parte, el deseo es que este software aprenda de la experiencia para ser cada vez más eficaz y que tenga una memoria que permita a la ciencia evolucionar más eficiente y rápidamente. Pero este aprendizaje se nos puede ir de las manos si no le ponemos límite y, aparte podría llegar un momento en el que se difumine la responsabilidad del creador y del elemento creado, si combinamos el aprendizaje y el poder de decisión autónoma. ¿Podríamos encontrarnos ante seres vivos mecánicos? Son cuestiones a las que nos tendríamos que enfrentar muy pronto y, como la misma ONU va a tratar, son cada vez menos ficción y más ciencia.

Si el objetivo primario del software y la electrónica era realizar cálculos y tareas cotidianas más rápido, ¿no es hora tal vez de ponerle una barrera antes de que nos sobrepase? ¿No habría que establecer unos límites o criterios de evaluación para que el software y los robots sean una ayuda y no un juguete de guerra?