Mata a 1 para salvar 5: la elección de un auto sin conductor puede hacer

Si ha realizado un curso de ética en los últimos doce años, probablemente esté familiarizado con el problema del carrito, un experimento mental ideado por el difunto filósofo británico Philippa Foot. Si nunca ha oído hablar de este problema, permítame describirle el escenario.

Imagina que estás en una colina y observa que hay un tren a alta velocidad que no puede ver a la vuelta de la esquina. Cinco personas están atadas a las pistas. Su destino parece sellado. Sin embargo, por suerte, estás parado al lado de un interruptor. Si arrojas el interruptor, el tren se desviará a otra pista antes de llegar a las desafortunadas víctimas.

¿Qué haces? Desviar el tren, por supuesto.

Pero hay un problema. En el desvío está una persona ocupándose de su propio negocio. Entonces, si desvías el tren, una persona morirá.

¿Ahora que haces? El problema es un poco más difícil. Sin embargo, la mayoría de la gente dice que lanzaría el cambio porque al hacerlo han salvado cinco vidas a costa de una. Esto es reflejo de una forma de pensar sobre problemas éticos: la mejor acción es la que conduce al mayor bien para la mayor cantidad. Es un cálculo que guía mucho pensamiento.

Pero como suelen hacer los filósofos, complican las cosas cambiando las condiciones. Una variación es imaginar que estás en un puente y el tren se dirige a las cinco personas. No hay interruptor esta vez. Pero no todo esta perdido. Sucede que estás parado al lado de una persona muy grande, alguien tan grande que no hay duda de que si los empujabas y frente al tren, el tren se detenía antes de chocar con los cinco.

¿Ahora qué harías? Aunque el resultado es el mismo: salvar cinco vidas sacrificando una, la mayoría de la gente no empujaría a la persona. Al ponerle literalmente la mano a alguien, el resultado cambia de un cálculo a una emoción, de que las muertes sean una estadística, a una muerte que es una tragedia de su propia acción.

Si bien muchos experimentos de pensamiento son geniales para la discusión en clase sin ninguna aparente aplicación en la vida real, el problema de Trolley está a la vanguardia de la revolución tecnológica actual. Los autos sin conductor, aún en etapa de desarrollo pero con la certeza de aparecer en la sala de exposición en los próximos años, tendrán que haber programado en ellos una respuesta a este experimento mental.

Imagine que frente a su automóvil sin conductor, cinco niños se colocan frente a usted. El auto, programado para su seguridad, se desvía para evitar golpearlos. Pero digamos que al hacerlo, tiene que golpear a un peatón en la acera. Cinco por uno. Pero, ¿qué pasa si en lugar de golpear a una persona, para evitar golpear a los niños, se estrelló contra una pared, matando al conductor?

Puedes imaginar una serie de variaciones. Aquí hay solo dos: en lugar de niños en edad escolar, son personas mayores que regresan al centro geriátrico; en lugar de un extraño en la acera, es su pariente.

Ya se han tomado decisiones similares. Los militares tienen que decidir quién y cuántos morirán para cumplir una misión. Los procedimientos de triage en el hospital son otro ejemplo, al igual que el establecimiento de protocolos para trasplantes con respecto a los órganos que escasean. La política de la policía con respecto a las situaciones de tiradores activos es ignorar a aquellos que necesitan asistencia y en su lugar atacar al tirador.

Independientemente del algoritmo que los programadores de Silicon Valley creen para los automóviles sin conductor, no satisfará la sensibilidad moral de todos. Y eso es porque este es un dilema ético con respuestas contradictorias. Una cosa es sentarse frente a una computadora para llegar a una decisión moral. Otra cosa es estar en el automóvil cuando la decisión es personal.

Quizás el mejor enfoque es permitir que los conductores elijan cuáles de las opciones desean. Otra es apagar el programa, en cuyo caso el punto de tener un automóvil sin conductor ya no importa.