Los autos que se manejan solos plantean un gran dilema moral

¿Cómo programarlos para casos de accidentes? ¿Deben preservar la vida del ocupante a cualquier costo?

Aunque son varias las automotrices que cuentan ya con la ingeniería suficiente para comenzar a fabricar autos que se manejan solos y, de hecho, algunas de ellas ya tienen modelos en fase experimental, existe un aspecto determinante en su desarrollo que no consiguen resolver aún: ¿cómo programar el comportamiento de esos vehículos en caso de un eventual accidente fatal? ¿Para que preserven la vida de su ocupante a cualquier costo? ¿O para que pongan en riesgo la vida de éste a fin de intentar salvar la de alguien más? Algunas de las principales firmas en Alemania, Estados Unidos y Japón están trabajando ya con filósofos y expertos en ética para que las ayuden a resolver este dilema que constituye para ellas un obstáculo mayor.

Los prototipos de autos sin conductor que han desarrollado Ford, General Motors, Audi y Renault entre otros fabricantes ya pueden avanzar, detenerse, esquivar obstáculos, estacionar y hasta circular en medio del tránsito en forma totalmente automática con un alto margen de seguridad. De ahí que se espera que con el perfeccionamiento de sus sistemas de navegación autónoma puedan ser aprobados por los organismos de seguridad vial para su venta masiva en menos de una década. Sin embargo para que ello se haga realidad será necesario resolver antes cómo programar su comportamiento ante diversos escenarios de accidentes que impliquen un eventual desenlace fatal.

Porque lo cierto es que si bien los autos sin conductor prometen reducir en gran medida las muertes por accidentes viales y evitar un alto porcentaje de choques, los expertos prevén que seguirá habiendo siniestros fatales que no podrán evitar. Y frente a esta perspectiva cabe la posibilidad que un vehículo automático tenga que elegir entre subir a una vereda llena de peatones para evitar ser alcanzado por detrás por un camión a toda velocidad o permanecer sobre la calle poniendo en serio riesgo a sus ocupantes.

“Hay que responder a esta clase de dilemas antes de que la conducción automatizada se haga realidad”, reconoció días atrás Jeff Greenberg, director técnico de la interfaz hombre-máquina de Ford. “Los autos sin conductor serán los primeros robots verdaderamente sociales que circulen entre la gente”. Determinar su comportamiento en situaciones extremas “será lo que marque la pauta para todos los que vengan después”, coincide el filósofo Patrick Lin, director del Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California y consejero de la industria automotriz.

Por el momento los filósofos y especialistas en ética convocados por las automotrices para trabajar en este problema tienen más preguntas que respuestas. ¿Las programas de los autos sin conductor deberían priorizar el mal menor en función del número de vidas en riesgo? ¿O deberían inspirarse en Asimov, cuya primera ley de la robótica dice que una máquina autónoma no puede causar daño a un ser humano por acción, lo que las habilita a causarlo por inacción?

Pero, por otro parte... ¿quién compraría un auto programado para sacrificar a su dueño? “Yo no querría que mi auto sacrificase mi vida sólo para salvar la de alguien más, lo que no significa que quisiera que preserve mi vida por encima de todo sin importar cuantas vidas cueste”, -admite Patrick Lin-, quien dice que esto último le parece incluso peor.

Alemania
Audi
Estados Unidos
Ford
General Motors
Japón
Universidad Politécnica

Las noticias locales nunca fueron tan importantes
SUSCRIBITE