Los países y las automotrices trabajan por resolver conflictos de tipo legal, ético, tecnológico que surgen con esta nueva tecnología. Cesvi analiza la problemática.

Bogotá, 20 de septiembre de 2016.– Los recientes accidentes de tráfico de los vehículos autónomos de la marca Tesla han reabierto el debate sobre los dilemas que proponen estas nuevas tecnologías.

En principio, cabe recordar que, como leíamos en la edición pasada de esta revista, “Además de acelerar y guiar el carro a un destino predeterminado por el conductor, estos dispositivos tienen una tarea nada fácil: reconocer las señales de paso de peatones (y la presencia de éstos), detener completamente el auto antes de que se pueda llegar a producir un accidente y maniobrar el carro a través de espacios reducidos, como calles donde están parqueados a lado y lado, unido al parqueo.”

Efectivamente, los mencionados siniestros desnudan una realidad incontestable: la tecnología aún está cruda y hacen falta varios años para perfeccionarla. El caso fue que, al igual que el sentido de la vista de un ser humano al volante puede ser deslumbrado por conducir con el sol en contraluz, los sensores del mencionado vehículo se vieron ‘confundidos´ por la superficie blanca de un panel lateral de una tractomula que infortunadamente pasaba por ahí, hecho que evitó que no se aplicaran los frenos.

¿A quién atropello?
Más allá del asunto tecnológico, de la sensibilidad de los instrumentos y de la rapidez de respuesta de los microchips en la programación de los algoritmos residen quizás los dilemas más delicados: el legal y el ético.

Si bien el asunto legal ya cursa por los órganos legislativos del Primer Mundo, por el momento se sigue discutiendo en Europa si, a pesar de lo avanzada que esté la conducción autónoma, el conductor tiene permitido retirar las manos del volante (!?).

Pero en lo que sí hay consenso es en que quien vaya a bordo (o al mando a distancia) es el responsable de lo que suceda, vaya o no activado el sistema autónomo. Es decir, en ningún caso se hace solidaria en la responsabilidad a la automotriz fabricante del carro ni a la autopartista proveedora de la tecnología.

Mencionamos ‘al mando a distancia’ porque una de las características más apreciadas será el telecomando, según el cual, recoger a alguien o al dueño del vehículo en un lugar para transportarlo a otro. Algo muy útil para los viajeros aéreos.

Otro punto por definir es la programación del algoritmo que decide un delicado y sensible asunto. Los programadores de estas instrucciones por medio de las cuales los sistemas de conducción autónoma actúan, surge el dilema moral de tomar la decisión frente a varias situaciones de conflicto moral.

Una de ellas es, por ejemplo, al ir por una calle, si inesperadamente se atraviesa un niño, una señora embarazada y una anciana, y si no se tiene ni el tiempo ni el espacio para frenar o eludirlos, ¿por cuál de ellos debe el algoritmo optar por atropellar? Todo un dilema porque es una decisión de la sala de programación de los programadores para que los computadores actúen.

Las automotrices alemanas han anunciado sus lanzamientos para los años 2020 y 2021. Mientras tanto, ya se habrán tenido que solucionar estos dilemas que rondan a la conducción autónoma.

Como referente de reflexión, les dejamos las Leyes de la robótica, escritas por Isaac Asimov en 1942:

1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1

Gracias por su interés. Por favor cite a Cesvi Colombia como fuente de la información.

RESPONDER

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí