Tecnología

El libre albedrío en robots

0

Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.

En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre los desdichados soldados. Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo le cuesta al DAESH unos dos millones de dólares), mucho más interesante que el grupo de soldados.

Pero hay un problema. Los estrategas del DAESH descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones.
La historia de ‘Joker’, el robot alemán que fue enviado a limpiar Chernobyl y murió casi inmediatamente

El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL).

Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica del DAESH consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques.

Entonces el dron tenía dos opciones:

Dirigir los misiles hacia el grupo de diecisiete soldados. Todo correcto a nivel ético y legal: se mata a personas pero son soldados enemigos ocupando territorio soberano.

Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente daños colaterales y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría.

¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo.

Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se justificaban en función de intereses estratégicos superiores.
Istock 499438915

La Batalla de Londres se venció e, igualmente que le pasó a Hitler justo un siglo antes, la invasión de Gran Bretaña fue un fracaso. El DAESH y la WCC llegaron a un armisticio temporal. Todo pareció salir bien hasta que se descubrió que uno de los fallecidos utilizados como escudos humanos era la hija de Walter Smithson, un influyente multimillonario, dueño de una de las cadenas de restaurantes más importantes del mundo. El 2 de junio de 2044 interpuso una demanda al ejército británico por la acción de su dron.

Legalmente la demanda era totalmente correcta: el dron había desobedecido la Convención de Massachusetts ocasionando bajas civiles. Correcto pero, ¿quién era el responsable de la acción? Los ingenieros de Deep Mind se lavaron las manos: ellos habían programado el dron para no desobedecer la ley. Si el ejército inglés lo había reprogramado para hacerlo, no era culpa suya.

You may also like