Imagina que estás en un coche que se conduce solo. Estás sentado en el asiento trasero, jugando un juego en tu teléfono, cuando de repente, el auto toma una rápida decisión de virar bruscamente y evitar atropellar a un perro que corrió hacia la calle. Pero al hacerlo choca contra otro coche. Aquí está la gran pregunta: ¿Quién es el responsable de ese accidente? ¿Es usted, la empresa que fabricó el coche, o quizás el software que controla el coche?
Esto es lo que la gente intenta descubrir a medida que los coches autónomos, también llamados coches autónomos, se vuelven más comunes. Hay toneladas de preguntas éticas y legales sobre quién está a cargo cuando estos autos sufren accidentes, y no siempre es una respuesta fácil.
¿Cómo toman decisiones los coches autónomos?
Para entender el problema, primero tenemos que ver cómo coches autónomos trabajar. Estos coches utilizan inteligencia artificial (IA) para conducirse. Piense en la IA como un cerebro súper inteligente que procesa todo tipo de información, como qué tan rápido va el automóvil, dónde están otros automóviles y qué están haciendo los semáforos. El coche utiliza sensores, cámaras y algo llamado LIDAR (que es como un radar pero con láseres) para “ver” su entorno.
Pero aquí viene la parte complicada: a veces el coche tiene que tomar decisiones difíciles. Digamos que un automóvil se dirige hacia un cruce de peatones y de repente dos personas saltan a la carretera. El automóvil tiene que decidir a quién o qué proteger: las personas en el cruce de peatones o el pasajero dentro del automóvil. Esta es una gran cuestión ética, y la gente todavía está descubriendo cómo enseñarle a la IA del automóvil a tomar esas decisiones.
Es algo así como el «problema del carro”, que es un famoso rompecabezas ético. En el problema, un tranvía avanza a toda velocidad hacia cinco personas y usted tiene el poder de cambiar de vía para salvarlas, pero lastimaría a una persona en la otra vía. No hay una respuesta correcta, y eso es exactamente lo que hace que las cosas sean tan complicadas para los coches autónomos.
¿Quién tiene la culpa en un accidente?
Ahora hablemos de responsabilidad. En un accidente automovilístico normal, está bastante claro quién tiene la culpa; normalmente es uno de los conductores. Pero en un automóvil autónomo, es posible que no haya ningún conductor o que la persona en el automóvil ni siquiera esté prestando atención cuando ocurre el accidente. Entonces ¿quién es el responsable?
Hay algunas opciones:
- El fabricante: Si el accidente ocurrió porque algo en el auto funcionó mal, como si los frenos no funcionaran, entonces la compañía que fabricó el auto podría ser considerada responsable.
- El desarrollador de software: Si el problema estaba en la toma de decisiones de la IA, se podría culpar a la empresa que diseñó el software. Esto podría suceder si el automóvil tomó la decisión equivocada en una situación de emergencia.
- El pasajero humano: Algunos vehículos autónomos todavía requieren que las personas estén preparadas para tomar el control si algo sale mal. Si ocurre un accidente y el humano no estaba prestando atención, podría ser considerado responsable.
- Empresas de terceros: A veces, una empresa diferente puede estar a cargo del mantenimiento de los coches (como un servicio de viajes compartidos que utiliza coches autónomos). Si algo no se solucionó correctamente, podrían ser responsables del accidente.
Un ejemplo real de esto ocurrió en 2018 cuando un vehículo autónomo de Uber atropelló y mató a un peatón. En ese caso, resultó que el conductor de seguridad no estaba prestando atención, pero la IA del coche tampoco actuó con la suficiente rapidez. Todavía hay un gran debate sobre quién fue realmente el culpable.
ayuda legal
Cuando te ves involucrado en un accidente, ya sea con un automóvil normal o autónomo, puede ser difícil. Es posible que no sepa quién tiene la culpa o cómo lidiar con el sistema legal. Aquí es donde contratar un abogado de accidentes automovilísticos puede ayudar.
Un abogado experimentado puede determinar si el accidente se debió a un mal funcionamiento del automóvil, a un error de software o incluso a la negligencia de otro conductor. Sabrán cómo reunir pruebas y tratar con las compañías de seguros, lo cual es importante a la hora de determinar quién debe pagar los daños. Además, si el caso llega a los tribunales, podrán representarlo y asegurarse de que obtenga un resultado justo.
También pueden orientarle sobre qué hacer inmediatamente después del accidente. Cómo presentar un informe policial, cómo documentar la escena o cuándo buscar evaluaciones médicas. Esto garantiza que no se pierda ningún paso importante que pueda afectar su caso en el futuro.
Las difíciles decisiones de la IA
Volvamos a la idea del coche tomando decisiones. Imagínese esto: un automóvil autónomo está a punto de atropellar a un ciervo que de repente salta a la carretera. La IA tiene una fracción de segundo para decidir: ¿debería desviarse para evitar al ciervo y posiblemente chocar contra otro automóvil, o debería mantener el rumbo y golpear al animal?
No siempre está claro cómo se debe programar la IA para manejar estas situaciones. En un país, la gente podría pensar que el automóvil siempre debería proteger la vida humana por encima de todo. En otro lugar, la gente podría argumentar que el automóvil debería minimizar los daños a la mayor cantidad de personas posible, incluso si eso pone en riesgo a los pasajeros. Y estas decisiones pueden cambiar según diferentes culturas o incluso preferencias individuales.
En este momento, las empresas que construyen estos autos están tratando de crear pautas éticas para ayudar a la IA a tomar este tipo de decisiones. Pero es muy complicado, porque nadie se pone realmente de acuerdo sobre cuál es la respuesta “correcta” a estos problemas.
¿Podemos confiar en los coches autónomos?
Una gran parte del debate sobre los vehículos autónomos es la confianza. La gente quiere saber si pueden confiar en estos coches para tomar las decisiones correctas en situaciones de emergencia. Y es difícil ganarse la confianza, especialmente cuando todavía ocurren accidentes.
Una forma en que las empresas pueden generar confianza es siendo transparentes. Eso significa que deben ser abiertos sobre cómo funcionan sus autos y qué tipo de decisiones está programada para tomar la IA. Cuando las personas comprenden lo que sucede bajo el capó, es más probable que se sientan seguras.
Pero también da miedo pensar en dejar que una máquina tome decisiones de vida o muerte por nosotros. Aunque los coches autónomos son generalmente más seguros que los conductores humanos (ya que los humanos se distraen o cometen errores con más frecuencia), sigue siendo difícil ceder el control por completo.
Empresas como Tesla y Waymo afirman que su tecnología es más segura que los conductores humanos, pero todavía hay mucho escepticismo. Una encuesta de 2022 mostró que solo 9% de los estadounidenses Dicen que confían en los coches autónomos, mientras que el 68% dice tenerles miedo.
¿Cómo lo están manejando los gobiernos y las empresas?
Los gobiernos de todo el mundo están tratando de idear reglas que ayuden a guiar los autos autónomos. En los EE.UU., el Departamento de Transporte ha publicado directrices para vehículos autónomos, pero las leyes aún se están poniendo al día con la tecnología.
Algunas personas sugieren que los fabricantes de automóviles deberían contribuir a un fondo de seguros que cubra los accidentes causados por vehículos autónomos. Otros piensan que necesitamos regulaciones más estrictas sobre cómo las empresas prueban sus sistemas de inteligencia artificial antes de ponerlos en funcionamiento.
Por parte de las empresas, la responsabilidad recae tanto en los fabricantes de automóviles como en los desarrolladores de software. Necesitan trabajar juntos para asegurarse de que la IA sea segura y que los autos puedan manejar todo tipo de situaciones del mundo real.
En resumen
Al final del día, la cuestión de quién es responsable cuando un coche autónomo choca sigue siendo un gran enigma. Está claro que no existe una respuesta única para todos, y la forma en que manejemos estas situaciones dependerá del tipo de sistemas legales y éticos que establezcamos.
A medida que los coches autónomos siguen aumentando en número, tendremos que descubrir cómo equilibrar la seguridad, la confianza y la responsabilidad. Ya sea el fabricante de automóviles, el desarrollador de software o incluso el pasajero humano, todos los involucrados tienen un papel que desempeñar para garantizar que estos vehículos sean seguros para todos en la carretera.
Es una gran tarea, pero si lo hacemos bien, los vehículos autónomos podrían ser un gran paso adelante para hacer que nuestras carreteras sean más seguras.
Crédito de la imagen destacada: Shubham Dhage/Unsplash