Hemos cruzado otro de los umbrales de la conducción autónoma de Elon Musk. La flota de vehículos Tesla que utilizan el sistema de conducción autónoma total (supervisado) de la compañía ha recorrido más de 10 mil millones de millas, según un informe de la compañía. Página de seguridad actualizada. Esto significa que la compañía ha cruzado la línea establecida por Musk a principios de este año para una conducción “segura y sin supervisión”.
Pero los propietarios de Tesla no se despertaron repentinamente hoy y descubrieron que sus autos FSD (supervisados) se habían convertido en autos FSD (no supervisados). FSD sigue siendo sólo un sistema de segundo nivel que requiere un conductor humano totalmente atento detrás del volante para monitorear la carretera y estar listo para tomar el control en cualquier momento.
En enero, Musk dijo en el
En enero, Musk dijo en X que “se necesitan casi 10 mil millones de millas de datos de entrenamiento para lograr una conducción autónoma segura y sin supervisión”.
Naturalmente, esto habría sido un movimiento muy arriesgado por parte de Tesla, especialmente cuando todavía hay muchas dudas sobre la voluntad de la compañía de aceptar la responsabilidad legal por más de un millón de vehículos afectados por FSD. Cuando un vehículo Waymo es responsable de un accidente, Waymo asume la responsabilidad porque es dueño de la tecnología y de la flota. Pero los términos de servicio de Tesla asignan la responsabilidad al propietario, según su descripción del sistema FSD como un sistema supervisado de Nivel 2. ¿Qué sucede cuando FSD queda sin supervisión? ¿Quién es entonces el responsable del colapso?
No está claro si Tesla se ha dado cuenta todavía de esto. A lo largo de los años, ha habido cientos de accidentes que involucraron funciones parcialmente autónomas de Tesla y decenas de muertes. Pero la empresa ha logrado evitar la responsabilidad, ya sea llegando a un acuerdo con las víctimas o convenciendo a los tribunales para que desestimen las demandas. En su sitio webTesla afirma que la FSD (supervisión) «requiere una supervisión activa del conductor y no hace que el vehículo sea autónomo».
El año pasado, un jurado federal en Florida encontró a Tesla parcialmente responsable de un accidente fatal en 2019 que involucró el programa de asistencia Autopilot de la compañía y ordenó a la compañía pagar 243 millones de dólares a las familias de las víctimas. Tesla apeló el fallo, pero el juez rechazó ese intento.
Sin embargo, vale la pena reconocer el sorprendente logro de 10 mil millones de millas recorridas en FSD (supervisado). Tesla afirma que sus automóviles equipados con FSD viajan un promedio de 5,5 millones de millas antes de un accidente importante, en comparación con las 660.000 millas que recorre el conductor estadounidense promedio. Tesla promociona esto como prueba de que el FSD es más seguro que la conducción humana.
¿Qué sucede cuando FSD queda sin supervisión? ¿Quién es entonces el responsable del colapso?
Los expertos llevan mucho tiempo cuestionando la metodología de Tesla. Los estudios han demostrado que los informes de seguridad de las empresas no tienen en cuenta hechos básicos sobre las estadísticas de tráfico, como que los accidentes son más comunes en las carreteras urbanas y en las carreteras indivisas que en las autopistas, donde se utiliza con más frecuencia el piloto automático. Algunos investigadores creen que Tesla puede haber contado mal los accidentes para que el piloto automático y el FSD parezcan más seguros de lo que realmente son.
La conducción sin supervisión aún está muy lejos para los clientes de Tesla, pero la compañía está aumentando el uso de vehículos desatendidos en su flota de robotaxi. Después del lanzamiento en Dallas y Houston con solo dos vehículos, Tesla ha agregado más vehículos a su flota. Dallas ahora tiene cinco robotaxis sin supervisión, mientras que Houston tiene seis, según rastreador robotaxi. Austin, donde Tesla lanzó por primera vez su servicio de robotaxi, ahora cuenta con 29 vehículos supervisados (empleados en el asiento del pasajero delantero) y 22 vehículos desatendidos.
Naturalmente, esto hace que muchos propietarios de Tesla se sientan muy cerca de conducir sin supervisión. Pero es probable que las cuestiones sobre la responsabilidad sigan retrasando su llegada. En una llamada telefónica el mes pasado, Musk dijo que conducir sin supervisión llega cuando «se vuelve legal hacerlo». Cuando se le preguntó específicamente sobre el FSD no supervisado en los vehículos de los clientes, esperaba que llegara en el cuarto trimestre del año.
¿Otro umbral u otro objetivo que inevitablemente se moverá?
(Etiquetas para traducción) Coches autónomos