Ponte en situación, vas en un coche autónomo a una velocidad determinada y de repente sale un niño detrás de una pelota que dado el tiempo de reacción y la capacidad de frenada (aún siendo automática) es incapaz de frenar. Podría hacer una maniobra de desvío pero entonces a esa velocidad el coche colisionaría contra una infraestructura de obra que podría acabar con la vida de los individuos en su interior.

¿Atropellarías al niño o correrías el riesgo de acabar con tu vida? Suena sórdido, y lo es. No obstante, la posibilidad de que se diese un caso así no es nula. Por lo tanto, para el desarrollo del coche autónomo, es necesario que se planteen este tipo de dilemas éticos bastante complicados de asimilar.

tesla reduce accidentes

Alemania, ya aprobó el año pasado el que sería el primer código ético del mundo para vehículos autónomos. En él dejaron bastante claro que en cualquier situación la vida humana debe prevalecer sobre los costes económicos. Así mismo, los algoritmos del coche deben estar configurados de tal manera que no se haga ninguna distinción por razones de edad, sexo, raza ni constitución física o psíquica.

El documento recoge un total de 20 principios éticos que deben cumplir los coches autónomos. No obstante, son principios bastante generales que no abordan con claridad situaciones concretas.

Es por ello, que para investigar más acerca del límite ético hasta el que puede llegar un coche autónomo, el MIT de Massachusetts decidió poner este delicado tema en estudio.

El experimento funciona de la siguiente manera: ¿qué decisión ética tomarían las personas ante determinada circunstancia por muy fatalista y complicada que sea? Reunieron a una muestra representativa y les puso ante una situación en la que elegir entre “A” o “B”.

Es decir, “A”: “¿Atropellarías a un anciano?” o “B”: “¿Atropellarías a un niño?”, en base a los resultados de la votación se configuraría una moral para la máquina. De momento es sólo un experimento teórico.

¿Qué debería hacer según tú?

El experimento adquiere un tono más oscuro cuando las preguntas empiezan a hilar más fino. ¿Debería anteponerse la vida de alguien según su profesión? o ¿si ha tenido una infracción de tráfico?¿Vale más la vida de una mujer o la de un hombre?

Cabe señalar que ante la complejidad de responder a estas preguntas, la premisa siempre es la misma, la opción “menos perjudicial” para la sociedad.

Como era de esperar, el experimento también ha sido duramente criticado y calificado como “un experimento amoral”. Siendo para muchos un atentado contra la libertad personal de decidir y responsabilizarse sobre los hechos que uno mismo hace.

Si automatizar la ética parece propio de una película de terror, para algunos escépticos la solución podría pasar por un sistema capaz de ponderar la culpabilidad de los factores.

Es decir, ¿se ha saltado el otro un semáforo en rojo? o ¿ha incumplido alguna ley poniendo en peligro su vida y la de los demás deliberadamente? Por cierto, el experimento tiene el nombre de Moral Machine y las votaciones siguen abiertas. ¿Eres capaz de juzgar?

Fuente: Moralmachine
Vía: La Vanguardia

NO HAY COMENTARIOS

Deja una respuesta