Hay una nuevo estudio del Instituto de Tecnología de Massachusetts (MIT), que analizó a los propietarios de Tesla que usan el piloto automático y cómo interactúan con él. El estudio, “Un modelo para el comportamiento de la mirada naturalista en torno a la desconexión del piloto automático de Tesla”, ya ha sido la fuente de muchos titulares que afirman que descubrió que todos los conductores de Tesla pierden la atención cuando usan el piloto automático. Estos titulares llevan a pensar que todos los propietarios de Tesla que utilizan el piloto automático pierden la atención.
Contenidos
Ojos en la carretera con piloto automático encendido y apagado
El objetivo del estudio era comprender el comportamiento visual que simula el patrón de mirada observado alrededor de las desconexiones no críticas iniciadas por el conductor del piloto automático de Tesla cuando se usa en la carretera. El estudio analizó datos de mirada de 290 desconexiones de piloto automático iniciadas por humanos. La duración de la mirada y la transición se modelaron con modelos mixtos lineales generalizados bayesianos. El informe señaló los resultados en un resumen rápido:
“El modelo replica el patrón de mirada observado en los conductores. Los componentes del modelo muestran que las miradas fuera de la carretera eran más largas con AP activo que sin él y que sus características de frecuencia cambiaron. Las miradas fuera de la carretera relacionadas con la conducción fueron menos frecuentes con AP activo que con la conducción manual, mientras que las miradas no relacionadas con la conducción hacia las áreas de abajo / centro de la columna fueron las más frecuentes y las más largas (el 22% de las miradas excedieron los 2 s). Se encontró poca diferencia en la duración de la mirada en la carretera “.
El informe concluyó que los comportamientos cambian antes y después de la desconexión del piloto automático.
“Antes de la desconexión, los conductores miraban menos en la carretera y se concentraban más en áreas no relacionadas con la conducción en comparación con después de la transición a la conducción manual. La mayor proporción de miradas fuera de la carretera antes de la desconexión a la conducción manual no se compensó con miradas más largas hacia adelante “.
El informe también concluyó que estos cambios en la duración y los patrones de la mirada sugieren que hay una menor atención visual a la carretera de avance cuando el piloto automático está activado en comparación con después de la desconexión para la conducción manual.
“Este cambio en la atención visual puede requerir mejores sistemas de gestión del conductor para cumplir con el uso recomendado por el fabricante.
“Sin embargo, se desconoce cuál es el nivel de atención suficiente con la automatización para alcanzar o superar el umbral de seguridad de un vehículo convencional. Sin embargo, mirar fuera de la carretera no implica automáticamente distracción o falta de atención. porque el comportamiento del conductor no se puede evaluar de forma aislada de la situación de conducción “.
Lo que encontró el estudio
En pocas palabras, el estudio encontró que el piloto automático hace que los propietarios de Tesla se sientan lo suficientemente seguros como para apartar la vista de la carretera por más tiempo de lo normal. Un conductor puede sentirse lo suficientemente seguro como para mirar al pasajero que está a su lado mientras el automóvil está en movimiento. La pregunta es: ¿lo están haciendo con cuidado y seguridad? El estudio no responde esa pregunta de una forma u otra.
Al parecer, el piloto automático les da a los propietarios de Tesla una sensación de seguridad que un conductor normal no sentiría mientras conduce, y esto no es bueno ni malo, pero es algo que tanto Tesla como los conductores deben tener en cuenta. El enfoque de Tesla es la seguridad primero, y la compañía, que recopila datos de conducción para construir FSD, probablemente sea consciente de esto y lo use para crear un sistema más seguro.
Una solución a la posible falta de atención de los propietarios de Tesla que usan el piloto automático es un sistema molesto, que Tesla tiene implementado. Sin embargo, Tesla no puede evitar que los conductores compren pesos para engañar al sistema. Tampoco puede impedir que las empresas vendan estos dispositivos. Quizás aquí es donde se aplicaría mejor la regulación: multas o sanciones más fuertes para los conductores que utilicen tales piratas informáticos. Hay muchos videos sobre cómo engañar a otros sistemas, como el control de crucero, por lo que este podría ser un problema mucho más amplio que solucionar.
En diciembre de 2020, hubo un nuevo proyecto de ley en Arizona que multaría a los conductores con $ 250 si engañan a los autos para que conduzcan con las manos libres. La impulsión informó sobre esto y señaló que los conductores han intentado durante años desactivar varias advertencias y bloqueos que están destinados a mantener su atención en la carretera. El proyecto de ley, sin embargo, murió en comité y no se convirtió en ley.
Si se hubiera convertido en ley, Arizona habría dado un paso importante al poner aún más la responsabilidad de prestar atención a la carretera directamente en sus conductores, y aquí es donde debería estar.
En qué me gustaría ver un estudio
Me gustaría ver un estudio sobre cómo Autopilot ha salvado vidas. Los datos están ahí y hay varios videos de propietarios de Tesla compartiendo cuentas sobre cómo el software los salvó de sufrir un accidente. Electronia ha cubierto algunos de estos, pero parece que todos los días hay una vida salvada por Autopilot.
Sin embargo, ninguno de los principales medios que se ejecutan rápidamente con “Choques de Tesla sin conductor” o titulares similares parecen tener interés en las vidas que se salvan con el uso del piloto automático. Un estudio que compare los datos de accidentes (cuántos accidentes ocurren con el piloto automático activado y sin él) y analice cómo el piloto automático salva vidas podría ser útil.
Pensamientos finales
Sí, hay un problema. Tesla y cualquier otro fabricante de cualquier tipo de ADAS se encontrarán con este problema. El problema es multifacético. Por un lado, la gente se distrae fácilmente. Entonces, Tesla implementó una solución para eso: una queja. Por otro lado, las personas son egoístas y no creen que las características de seguridad se les apliquen. Encuentran formas de engañar o incluso desactivar las funciones de seguridad. Esto no es culpa de Tesla, ni de ninguna empresa que crea una tecnología de la que la gente encuentra formas de abusar. El problema es que la gente abusará de él.
“Bueno, ¡tal vez Tesla no debería hacerlo entonces!”
Decir que no deberíamos crear mejores sistemas porque la gente abusará de ellos no ayuda. La solución es encontrar una forma de prevenir o disuadir a las personas de abusar del sistema. Sin embargo, la regulación debería estar involucrada y esto significaría eliminar una gran cantidad de trámites burocráticos en todos los estados. Incluso entonces, siempre habrá personas que violen la ley, abusarán de los sistemas diseñados para ayudar a protegernos y harán cosas demasiado peligrosas.
.
Sin más, volverás a saber de mi la siguiente noticia. ¡Un saludo!