La máquina moral de los carros autónomos: ¿Contra qué pueden estrellarse?

Publicado el 20 Nov 2019

Piloto automático de Tesla

Por lo general, cuando hablamos sobre carros autónomos e inteligentes nos imaginamos también carros seguros y confiables. Si bien la tecnología todavía está madurando, ya hoy en día se pueden ver aplicaciones avanzadas de carros que manejan igual o incluso mejor que nosotros los humanos.

Tesla, por ejemplo, ofrece el piloto automático más avanzado del mercado, y para octubre de 2019 ya tenía un estimado de 1.880 millones de millas recorridas. Este número es importante ya que muchos de los algoritmos ‘que manejan’ están basados en Inteligencia Artificial y Machine Learning. Esto quiere decir que a más millas recorridas, el piloto automático será mejor.

Por otro lado, Waymo, la compañía subsidiaria de Alphabet y dirigida por Google, ha recorrido más de 10 millones de millas en el mundo real y otros 10.000 millones en simulaciones.

Sin embargo, aunque los números aumentan y los algoritmos se vuelven más inteligentes, esta tecnología trae consigo problemas no sólo para el aparato judicial sino además para los usuarios.

Como dice el refrán, no se puede hacer un omelet sin romper algunos huevos; y no se puede crear un carro autónomo sin estrellarse. Aunque la tecnología promete un futuro en las vías más seguro, lo cierto es que muchas de las compañías que desarrollan carros autónomos también han estado involucradas en varios accidentes, algunos fatales.

El dilema del tranvía

Para entender mejor la problemática, resulta útil hablar sobre uno de los dilemas éticos más populares en la actualidad. Este se entiende como lo siguiente:

Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas atadas a la vía por un filósofo malvado. Afortunadamente, es posible accionar un botón que encaminará al tranvía por una vía diferente; por desgracia, hay otra persona atada a ésta. ¿Debería pulsarse el botón?

Más allá de responder qué decisión es mejor, lo cierto del asunto es que alguien seguramente va a salir herido. Este dilema y su respuesta se ha convertido en una de las problemáticas más grandes a las que se enfrentan los carros autónomos y las compañías.

En caso de que un carro autónomo esté andando a gran velocidad y de repente alguien se cruce en el camino, ¿cómo debería responder el automóvil?, ¿qué hacer cuando el transeúnte que cruza es un niño?, ¿debería cambiar su reacción si es el automóvil el que lleva dentro un niño?

Encontrar respuestas a estos interrogantes no es nada fácil, y sin embargo las compañías deben incorporar algún tipo de respuesta dentro de sus algoritmos. Los carros del futuro deberán ser capaces de procesar una respuesta en menos de un segundo, y hasta el momento todavía no es muy claro cuál es el camino que van a tomar.

En un experimento social, un grupo de investigadores del Instituto Técnico de Massachusetts creó una página web en la que nosotros, los humanos, respondemos a los problemas que podría tener un carro autónomo. El experimento se llama The Moral Machine, y está disponible en varios lenguajes para que más personas puedan contribuir.

Los 13 retos que propone son del siguiente estilo:

Los huevos rotos del omelet

Y es que si bien los sistemas van mejorando, muchas de estas mejoras son también producto del análisis de los choques que se han presentado. Haciendo una analogía con la industria aérea, para llegar al grado de seguridad que tienen los aviones, antes debieron sufrir accidentes que precisamente expusieron fallas en el sistema y errores presentes, pero no conocidos.

Waymo es la empresa de Google dedicada exclusivamente al desarrollo de autos autónomos, y al mismo tiempo también es la que más ha sufrido accidentes. Para el 2018 se habían registrado más de 30, de los cuales uno ocurrido en febrero del 2016 fue causado enteramente por el automóvil de Google. Pese a esto, ninguno de los accidentes ha sido fatal.

Tesla y Uber han sentido las consecuencias de los accidentes fatales mucho más que otras empresas. En agosto de 2019, Tesla recibió una demanda en contra por parte de la familia de Jeremy Beren Banner. Jeremy murió mientras conducía su automóvil Tesla con el piloto automático encendido y se encontró con un camión en la vía. Él es la cuarta persona muerta en accidentes que involucran vehículos de Tesla y su piloto automático. 

Uber, por su parte, hizo parte de una controversia en marzo del 2018, cuando uno de sus carros autónomos atropelló a un transeúnte en Arizona ocasionándole la muerte. Incluso peor aún es que según el informe de NSTB — por la sigla de National Safety Transportation Board u Oficina Nacional de Seguridad en Transporte— el software de Uber nunca identificó a la víctima como transeúnte. Esto significó que si bien el auto la detectó 6 segundos antes del impacto, este nunca tomó la decisión de frenar o cambiar el rumbo.

Y aunque pudiera parecer oscuro el futuro, los automóviles autónomos representan el próximo paso que se debe seguir. Según la Asociación Nacional de Autopistas de Estados Unidos, el 94% de los accidentes de tránsito son causados por error humano. Si la tecnología es capaz de reducir esta cifra y hacer las carreteras más seguras para todos, pues bienvenida sea.

[su_divider top=”yes” text=”” style=”default” divider_color=”#999999″ link_color=”#999999″ size=”1″ margin=”15″ class=””]

Imagen principal: David von Diemar en Unsplash.

¿Qué te ha parecido este artículo?

R
Sebastián Romero Torres

Filósofo de formación y geek empedernido. Amante de los videojuegos, la tecnología, la música y el espacio.

email Sígueme en

Artículos relacionados

Artículo 1 de 5