06 Feb Vehículos Autónomos – Consideraciones sobre la responsabilidad civil y penal
- Vehículos Autónomos.
Tras realizar un estudio del tema, pude apreciar que actualmente no hay en el mercado vehículos que se conduzcan de forma totalmente autónoma. Hasta el momento y pese a la confusión que genera la publicidad de las distintas marcas, solo existen vehículos cuasi autónomos, esto es, vehículos que tienen incorporados sistemas de asistencia al conductor, pero que no prescinden absolutamente de él.
Existen varias escalas o clasificaciones de automatización, la más utilizada internacionalmente es la de SAE – “Society of Automotive Engineers”. Este sistema clasifica a los vehículos en niveles que van del 0 a 5, donde 0 es sin ninguna asistencia y 5 es autonomía total. Hasta el nivel 3 inclusive se sigue necesitando del conductor humano. Los automóviles que llamamos “autónomos” que se comercializan hoy en día están entre el nivel 2 y 3.
Detrás de estos autos se encuentran las empresas más grandes y poderosas del rubro tecnológico y automotriz, entre ellas, Tesla, Nio, Waymo, Ford, que han invertido incontables recursos en I+D+I en su intento por ser pioneras y captar este mercado, que sin duda se consolidará como tendencia.
Los vehículos autónomos son en su mayoría eléctricos, altamente eficientes y amigables con el medio ambiente, cuentan con una computadora central (CPU), cámaras de alta definición y una gran cantidad de sensores que les permite captar el mundo que los rodea, así como sistemas GPS muy precisos, con baja latencia que utilizan para su localización, posicionamiento y navegación.
Los sistemas de Inteligencia Artificial que usan estos vehículos procesan ese gran volumen de datos e información, y esto posibilita que el vehículo tome decisiones en milésimas de segundos.
Si bien los sistemas de asistencia automática aportan seguridad y evitan los errores humanos, generan al mismo tiempo nuevos riesgos. Por ejemplo, se advierte que la mayoría de los accidentes que involucran vehículos autónomos se producen cuando el usuario se confía demasiado en que su auto es capaz de hacer algo que técnicamente no puede. Por eso es necesario que el usuario conozca al detalle las prestaciones de su vehículo y como funciona su sistema de automatización, al tiempo que las empresas también están obligadas a contribuir con esta información.
Son varias las noticias de accidentes fatales que involucran estos automóviles. Por ejemplo, recientemente un TESLA en China atropello a dos policías de tránsito, causándole la muerte a uno de ellos. La noticia menciona que el conductor estaba jugando con su celular previo a embestirlos. Un par de meses atrás, esta vez en EE. UU. dos jóvenes perdieron la vida en un accidente de tránsito manejando un TESLA. La pericia demostró que ambos viajaban en el auto, pero ninguno de ellos lo estaban conduciendo al momento del choque.
TESLA, ha explicado en reiteradas ocasiones que su sistema requiere que sea activado por el “conductor”, y este debe continuar en todo momento controlando el vehículo, con las manos sobre el volante. Por ello, consideran que el “conductor” sigue siendo responsable del vehículo, ya que su sistema no es completamente autónomo, sino que asiste a la conducción humana.
Atento a estos ejemplos, parece interesante analizar qué responsabilidad podría haber si esto sucediera en nuestro país, donde estos autos recién comienzan a verse.
- Que solución podemos encontrar en nuestro derecho.
Desde la óptica del derecho penal, en estos casos la responsabilidad del conductor parece clara. Si pudo prever el resultado y no lo hizo, responde a título de culpa o dolo eventual.
El artículo 18 del Código Penal, establece que el mínimo grado de responsabilidad de una persona es la culpa, la imprudencia. Esta implica no prever un resultado que pudiendo ser previsto no lo fue, por imprudencia, pero también por violación de leyes o reglamentos. En cuanto a esto último, veamos lo que establece la Ley 18.191 de Seguridad Vial en su artículo 24.- Se conducirá con prudencia y atención, con el objeto de evitar eventuales accidentes, conservando en todo momento el dominio efectivo del vehículo, teniendo en cuenta los riesgos propios de la circulación y demás circunstancias del tránsito.
Por lo tanto, si una persona está manejando un vehículo que tiene un asistente automático de conducción, lo activa y se pone a realizar cualquier tarea que no sea conducir, estaría actuando de forma ilícita, es decir contrario a derecho, y por lo tanto tendría responsabilidad. Es innegable el nexo causal entre su conducta y el resultado acaecido.
A su vez, si en el proceso se logra probar que el conductor previó que podía ocasionar un accidente, pero de todas formas depositó su confianza en el sistema de navegación de su auto, responderá por un delito de lesiones, u homicidio (según sea el caso) a título de dolo eventual, al cual la doctrina llama “dolo egoísta” (art. 18, inc. 2do y art. 3 del C.P.).
Como enseñaba el profesor Langón, para imputarle un resultado producido a un sujeto determinado es esencial que éste haya creado el peligro, y que ese peligro, además, se haya realizado en el resultado. Sino se cumple cualquiera de estas dos condiciones, el resultado no es imputable al sujeto que actuó, y la conducta en consecuencia es atípica. Por lo tanto, se requiere que la persona haya creado el riesgo o lo haya aumentado más allá del límite de lo permitido o tolerado y que ese peligro se haya concretado en el resultado, tal como ocurrió en estos casos.
En lo que refiere a la responsabilidad civil, la misma puede ser contractual o extracontractual. Para dimensionar la complejidad del tema, podemos distinguir varias esferas: La responsabilidad del conductor, del propietario del vehículo (si es distinto al conductor), de los fabricantes del vehículo, del fabricante del sistema de asistencia, o incluso, la responsabilidad del Estado a través de su Ente Regulador o de la Intendencia que habilitó al vehículo para que pudiera circular.
En el caso de los autos semi autónomos, el propietario podrá ir contra el fabricante ya que es pacíficamente admitida la responsabilidad contractual por defectos de fabricación. De cara a la víctima de un siniestro la responsabilidad podrá ser dirigida contra el conductor (art. 1319 del CC.) o la empresa para la que éste trabaja (responsabilidad por hecho del dependiente, art. 1324 del CC.).
Pero cabe preguntarnos qué sucederá cuando estos accidentes involucren vehículos totalmente autónomos. En materia penal va a ser muy difícil probar el nexo causal, ya que el mismo posiblemente desaparezca y en tal caso el usuario no será responsable del siniestro. El usuario de estos vehículos dejará de ser conductor y pasará a ser un mero pasajero, o podemos decir que sigue siendo conductor aun cuando su actuar se limita solo a indicarle al vehículo el destino y/o elegir la ruta en el mapa. Estas situaciones presentarán grandes desafíos regulatorios. Es posible que sea necesario recurrir a la responsabilidad penal de las personas jurídicas. También se presenta un dilema ético y moral pendiente de resolver, ¿que debe priorizar la IA de un vehículo autónomo cuando la colisión o un resultado fatídico es inevitable? Será necesario establecer un parámetro ético universal común, o quizás considerar uno específico adaptado al lugar en donde circula el vehículo, habida cuenta de que puede haber sociedades con distintos valores y costumbres, y que estos pueden ir cambiando con el tiempo. Por último, también se presenta un gran desafío para las compañías aseguradoras.
- Conclusión
A diferencia de Estados Unidos y Europa, en nuestro país no hay ninguna norma que regule a los vehículos autónomos. Si bien en Uruguay actualmente hay pocos de estos vehículos, es de esperar que su número crezca y se vuelva algo común.
Desde la órbita penal la solución parece ser clara, al menos por el momento, pero no sabemos qué ocurrirá cuando estos vehículos sean 100% autónomos, cuando los primeros autos con nivel 5 de autonomía comiences a circular en nuestras calles y existan accidentes. En ese entonces o preferentemente antes, será necesario legislar para dar certeza y seguridad jurídica.
Una inquietud que debemos resolver y volcar en la máquina, es la solución a los dilemas éticos y morales que se puedan presentar u optar por dejar esta última decisión al conductor humano. ¿Serán responsabilizados los programadores por estas decisiones? ¿Serán las empresas las que respondan o sus directores?
Pensemos qué sucede si el sistema informático del auto presenta errores de programación, sesgos algorítmicos, o incluso si es hackeado o controlado remotamente por un ciberdelincuente, o si sufre una interferencia involuntaria, se bloquea repentinamente o toma decisiones abruptas que ponen en riesgo la vida o la integridad física de las personas.
Sin duda en estos casos será necesario legislar o de cualquier forma establecer reglas claras que respondan estas interrogantes, así como implementar mecanismos y procesos que atiendan estas cuestiones de manera justa. El desafío del derecho y de los operadores jurídicos en este sentido es enorme.