Hola, NTSB, ¿dónde está la evidencia de que la versión beta del FSD de Tesla es peligrosa?

¡Compártelo!

La semana pasada, se reveló que la Junta Nacional de Seguridad en el Transporte (NTSB) fue pidiendo a la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) que tome medidas enérgicas contra los sistemas ADAS, específicamente llamando a Tesla por los supuestos peligros del programa FSD Beta. La carta (como muchas otras críticas de Tesla FSD) es falsa.

Iba a llegar a esto más rápido, pero sentí que necesitábamos un manual para los lectores sobre un problema subyacente en la comunidad de defensores de la seguridad automotriz. La llamo La Iglesia de la Seguridad Automotriz. Hay muchos defensores de la seguridad que exigen que aceptemos las cosas que dicen solo por fe, cuando en realidad no hay una base científica para lo que dicen. Cuando tomamos su palabra, terminamos con muertes innecesarias, como se detalla en la serie.

los epístola más reciente enviada de una agencia gubernamental a otra es otro ejemplo más de esto. Dieron buenos ejemplos del mal manejo real de las pruebas automáticas de vehículos para una empresa que opera en Las Vegas y de los errores de Uber. En Las Vegas, se suponía que el transportador de personas automatizado de Keolis North America tenía un asistente listo para tomar el control en todo momento, y en realidad no tenían acceso a esos controles. En el caso de Uber, su conductor de prueba desatento en realidad causó la muerte de una mujer.

Sin embargo, cuando la epístola llegó a Tesla, usaron un estándar muy diferente:

“Tesla lanzó recientemente una versión beta de su sistema de piloto automático de nivel 2, descrito como con capacidad de conducción autónoma total. Al lanzar el sistema, Tesla está probando en vías públicas una tecnología AV altamente automatizada pero con requisitos de supervisión o informes limitados. Aunque Tesla incluye un descargo de responsabilidad que dice que “ las funciones actualmente habilitadas requieren la supervisión activa del conductor y no hacen que el vehículo sea autónomo ”, el enfoque de no intervención de la NHTSA para la supervisión de las pruebas AV plantea un riesgo potencial para los automovilistas y otros usuarios de la carretera “. (énfasis añadido)

Mientras que otras empresas que prueban vehículos autónomos son denunciadas por accidentes reales que ocurrieron, Tesla está siendo juzgada basándose en unRiesgo potencial, ”Y eso significa que la NHTSA debe tomar medidas enérgicas.

Para ser justos, ha habido algunas muertes y accidentes de personas que utilizan el piloto automático, pero en todos los casos el sistema se estaba utilizando de forma muy incorrecta. Algunos de los fallecidos incluso dejaron el asiento del conductor por completo, a pesar de saber que el sistema no estaba destinado a ser un vehículo autónomo.

Sin embargo, Tesla ha sido mucho más cuidadoso con las pruebas de su FSD Beta. El software experimental se lanzó al principio solo para unos pocos probadores con buenos antecedentes de manejo, con no más de 1000 personas usándolo. Recientemente, Elon Musk reveló que algunas personas perdieron el acceso a la Beta por no prestar atención.

Además de eso, la compañía incluso ha estado usando la cámara interior del automóvil para monitorear la atención del conductor, y esto es algo que los defensores de la seguridad han estado presionando a Tesla para que haga.

Quizás lo más importante a tener en cuenta es que, a pesar de que la Iglesia de la seguridad automotriz se ha expresado mucho (fui estúpido e hice esto un poco), no ha habido accidentes que sepamos al usar la FSD Beta. Ninguno. Elon Musk no solo dice que no ha habido ningún accidente entre los probadores Beta, sino que tampoco hay informes de los medios de comunicación de un accidente de este tipo, y sabes que lo habrían superado si hubiera uno.

Hay otra crítica que he visto planteada en las últimas semanas que me gustaría abordar antes de seguir adelante: la idea de que Tesla está siendo deshonesto cuando les dice a los clientes que FSD eventualmente será autónomo mientras les dice a los reguladores que el FSD Beta siempre será el Nivel 2.

Note la diferencia allí: “Beta. Tesla nunca le dijo a nadie que el FSD Beta es en realidad un sistema autónomo completamente autónomo. Es un BETA. Está siendo probado. Requiere que alguien lo vigile, porque es un paquete de software incompleto que todos saben que no está listo para el horario de máxima audiencia. ¡Por supuesto que la Beta siempre será del Nivel 2! Nadie en tesla alguna vez dicho lo contrario.

Podemos discutir todo el día sobre si Tesla logrará alguna vez la conducción autónoma total, pero ese es un argumento completamente diferente y es deshonesto combinar declaraciones sobre el producto final con declaraciones sobre el software sin terminar.

¿Es prudente regular basándose únicamente en los “riesgos potenciales”?

La respuesta corta: No.

Como he señalado repetidamente antes, el mito de “La seguridad es lo primero” es basura caliente. Obtener una seguridad absoluta nunca es posible, y de hecho podemos hacernos menos seguros cuando intentamos ir por la seguridad al 100%. Lo único que podemos decir con certeza (al menos con la tecnología actual) es que el 100% de las personas morirá en algún momento. Nadie sale vivo. Eso no significa que debamos ser descuidados y no tomar precauciones (Tesla está tomando precauciones), pero no podemos deshacernos de todos los riesgos sin que todos mueran de hambre o una sociedad represiva estancada.

La seguridad ocupa el tercer lugar. Hacer las cosas y ganar dinero (o divertirse) es lo primero. Nos involucramos voluntariamente en comportamientos riesgosos como conducir, andar en bicicleta de montaña e incluso caminar. El riesgo es una parte normal de la vida y no deberíamos fingir lo contrario.

Cuando pretendemos que nos hemos librado de todos los riesgos, la gente deja de asumir responsabilidades personales y el sentido común se pierde. Incluso cuando tiene un letrero de “caminar” iluminado frente a usted, es una buena idea mirar a ambos lados rápidamente antes de salir a la calle, porque seguir las reglas (no caminar cuando dice No caminar) puede ayuda con la seguridad, pero la seguridad no se garantiza si se siguen las reglas únicamente.

No importa cuántas reglas la NTSB haga que la NHTSA aplique a las pruebas de vehículos autónomos, siempre se requerirá sentido común por parte de los conductores de prueba. Incluso si cada conductor de prueba debe pasar por una clase, si el conductor de prueba abandona por completo su deber (y, por ejemplo, mira reality shows como el conductor de Uber), entonces sucederán cosas malas. Ninguna cantidad de entrenamiento puede evitar que alguien haga algo estúpido; eso siempre será una responsabilidad personal.

El programa FSD Beta de Tesla está funcionando y la prueba está en el pudín. Los conductores de prueba se controlan de alguna manera mediante la cámara interior y se eliminan los conductores distraídos. Los conductores restantes no han tenido accidentes mientras usaban el software, por lo que Tesla debe estar haciendo algo bien. Caer sobre ellos ahora no tendría sentido.

Mago destacado: imágenes de marketing de piloto automático de Tesla.


Si te ha resultado interesante, anímate a compartir este contenido con esa persona interesada.

¡Compártelo!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *