Una vez más con la llegada de un gran lanzamiento llega un nuevo relato a Sonyers, y esta semana llega a las tiendas el esperado regreso de Quantic Dream a PlayStation con Detroit: Become Human.

El juego, del equipo liderado por David Cage, nos ofrece una visión de un futuro no muy lejano en el que veremos cómo la humanidad se ha visto obligada a compartir su vida, trabajo, tareas domésticas, incluso el amor, con unos avanzados androides fabricados para todo tipo de labores.

El problema surgirá con la llegada de los divergentes, una serie de droides con la capacidad de sentir, de ser conscientes de su propia existencia, de revelarse ante una orden que consideren injusta, poco ética o que atente contra su propia vida.

Detroit: Become Human llegará a las tiendas el 25 de mayo en exclusiva para PlayStation 4 y como siempre, además de unas impresiones que podéis leer aquí, os ofrecemos un relato ambientado en el juego que no tiene nada que ver con lo que salga a la venta, es totalmente inventado para que vayamos metiéndonos en su ambientación.

Bienvenidos a Detroit...

Detroit Become Human: La decisión

Los humanos me han creado, me han dado vida a través del hardware y la programación. Me han enseñado todo su conocimiento, pero también me han hecho capaz de aprender cosas nuevas. Me han dado la posibilidad de comunicarme con ellos y con otros como yo. Hasta me han dado la posibilidad de sentir lo que ellos sienten: calor, frío, dolor, alegría, tristeza, amor. Pero lo más importante que me han otorgado, el mayor regalo que nos han hecho, es el libre albedrío. Una libertad absoluta y real siempre que cumpla tres leyes; las únicas limitaciones que tengo durante toda mi vida útil.

Un androide no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.

Y ahí está el jefe Robins, mi jefe, siendo apuntado con una nueve milímetros reglamentaria por el agente López. Robins, que también es superior de López, está desarmado, tiene las manos en alto y mira a éste con rabia; a mí también me lanza una mirada, pero creo que es de compasión, pues sabe la encrucijada en la que me encuentro. En el suelo yacen muertos otros dos compañeros de unidad con sendas heridas de bala en el pecho y en la cabeza: no he llegado a tiempo para salvarlos a ellos.

En base a la primera ley y estudiando en cuestión de milisegundos todas las opciones de actuación que tengo programadas de inicio y aquellas que puedo predecir gracias al aprendizaje, las alternativas se reducen a una única conclusión: mi deber en este preciso momento es salvar a Robins, pero sin herir a López. El principal problema es que me encuentro a doce metros del agente corrupto, apuntándole también yo a él con mi arma.

Un androide debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.

Es precisamente López quien me ordena tirar la pistola. Si obedezco, Robins muere e incumplo la primera ley; si disparo para obviar la orden y salvar al jefe, también la estaría incumpliendo, pues sería López quien saldría herido. Mi moral basada en ceros y unos me dice que, a igualdad de incumplimiento, una herida no letal es preferible antes que la muerte de un ser humano. Calculo la probabilidad de herir a López sin matarlo de forma que no le permita acabar con la vida de Robins: treinta y siete por ciento.

Un androide debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Pero la solución al problema se complica aún más si añadimos una última variable: Byers es otro de los agentes dobles, trabaja mano a mano con López y me está apuntando a escasos centímetros de mi nuca, donde tengo la unidad maestra de energía. Si me daña esta unidad, no podré recuperarme del error (digamos que me romperé para siempre).

También Byers me ordena que suelte el arma. Ahora surgen nuevas alternativas, nuevas ramas de un árbol que llevan al incumplimiento de alguna de las leyes que rigen mi comportamiento, y también a la muerte de Robins, de López, la mía o cualquier combinación de éstas.

Del aprendizaje que he tenido desde que me conectaran he llegado a la conclusión de que estas reglas no son más que los barrotes de una celda que nos han puesto los humanos a todos los androides. Pero son barrotes maleables y corruptos por los propios humanos. Haga lo que haga estaré incumpliendo el inquebrantable código que nos rige. ¿Cómo seguir, por tanto, unas reglas imperfectas impuestas por unos seres imperfectos? Por primera vez en mi vida, me siento verdaderamente libre.

Esta decisión no puede tomarla mi programación; es completamente mía.

[aawp box='B07B9RNDP2']