Hace poco más de un año Walter Huang, que era un ingeniero de Apple de 39 años murió después de que su Tesla con Autopilot se estrellara contra la barrera central de la carretera 101 en Mountain View a más de 100 kilómetros por hora. Y ahora, casi un año después la familia de Huang ha iniciado una demanda contra Tesla acusándola de probar su tecnología con personas reales.

Los demandantes alegan que el sistema de piloto automático de Tesla (Autopilot) falló al interpretar las líneas divisorias entre carriles, además de que no solo no frenó, sino que aceleró el vehículo contra la barrera.

Un Tesla Model S en Autopilot se impacta contra un camión de bomberos

El abogado de la familia, Mark Fong, mencionó lo siguiente:

«La señora Huang perdió a su marido, y dos niños perdieron a su padre porque Tesla decidió probar su software Autopilot con conductores vivos».

Dentro de la demanda, se acusa a Tesla de diseño defectuoso de producto, falta de advertencia, publicidad falsa, incumplimiento de garantía, y tergiversación intencional y negligente.

Y es que el abogado indica que Walter Huang se había quejado al menos unas 7 veces de que el piloto automático siempre fallaba en el punto donde tuvo el accidente, mencionando que el coche giraba hacia la barra de seguridad siempre que pasaba por ahí.

Tesla dice que Walter Huang no hizo caso a las advertencias

La compañía de Elon Musk mencionó que en la investigación se reveló que el Autopilot había notificado varias veces al Sr. Huang que tomara el control de vehículo, sin embargo, no hizo caso.

Confirman que Autopiloto estaba activado durante accidente fatal del Tesla Model X

La empresa declaró en un comunicado unas semanas después del accidente lo siguiente:

«Sentimos mucho la pérdida. Según la familia, el Sr. Huang era consciente de que el Autopilot no era perfecto y, específicamente, les dijo que no era fiable en el lugar exacto donde tuvo lugar el accidente, y no obstante, decidió usar el Autopilot en ese lugar. El impacto ocurrió durante un día despejado y con varios cientos de metros de visibilidad por delante, lo que significa que la única forma de que ocurriera este accidente es que el Sr. Huang no estuviera prestando atención a la carretera, a pesar de que el vehículo le proporcionó múltiples advertencias para hacerlo. La premisa fundamental de la responsabilidad moral y legal es una promesa rota, y aquí no hay ninguna. Tesla ha sido extremadamente clara en que el Autopilot requiere que el conductor esté alerta y tenga las manos en el volante. Este recordatorio se realiza cada vez que se activa el Autopilot. Si el sistema detecta que las manos no están en el volante, emite alertas visuales y auditivas. Esto sucedió varias veces en el vehículo del Sr. Huang ese día. Empatizamos con la familia del Sr. Huang, que comprensiblemente enfrenta pérdida y dolor, pero la falsa impresión de que el Autopilot no es seguro causará daño a otras personas».

Así mismo, la empresa también dejó claro que sus coches han usado piloto automático en ese mismo tramo de la carretera más 85,000 veces hasta ahora, desde que lanzaron la función en 2015, y que sus clientes pasan el mismo tramo utilizando el piloto automático aproximadamente 200 veces por día.