Una investigación de Stanford muestra cómo los vehículos Tesla pueden ver a través de la niebla

¡Compártelo!

En un nuevo video del Dr. Know It All en YouTube, explica que quería saber si los autos Tesla podían ver a través de la niebla. Citó un Artículo de investigación de Stanford eso muestra cómo puede ver a través de la niebla. El artículo, publicado el año pasado, señaló que las técnicas de imágenes ópticas como la detección y el alcance de la luz (LiDAR) eran herramientas esenciales en la teledetección, la visión robótica y la conducción autónoma. Personalmente, esto me tiene un poco curioso, ya que Tesla no usa LiDAR y pronto dejará de usar el radar, sino que dependerá de la “visión pura”, como compartió recientemente Elon Musk en Twitter.

En su video, el Dr. Know-It-All señaló que, al resumir el artículo de investigación, no creía que Tesla estuviera usando toda la investigación de ese artículo. “La investigación es muy especializada y necesita un sistema láser y también algún tipo de sensor de diodo en cascada”. Explicó que esas cosas se basan más en LiDAR que en la visión, pero cree que podría haber una forma pasiva de IA de utilizar la investigación para ayudar a crear la capacidad de conducción autónoma en condiciones extremas, como niebla, lluvia intensa, nieve y incluso polvo, para quienes viven en entornos polvorientos.

“Lo sorprendente de esta investigación es que básicamente pueden ver a través de una pieza de espuma de una pulgada o dos centímetros y medio. Quiero decir, es básicamente algo que literalmente no puedes ver ”, dijo.

Lo que sugirió es que los vehículos Tesla no podrán hacer eso. Sin embargo, lo que Tesla puede hacer es mirar a través de algo parecido a la niebla.

Resumen del trabajo de investigación

En el video, el Dr. Know-It-All repasa algunas citas del trabajo de investigación y comparte sus pensamientos. A continuación se muestran las citas del documento.

“Introducimos una técnica que co-diseña diodos de avalancha de fotón único, láseres pulsados ​​ultrarrápidos y un nuevo método inverso para capturar formas 3D a través de medios de dispersión”.

“Nuestra técnica, la tomografía difusa confocal, puede ser de considerable valor para las aplicaciones mencionadas”.

“Los sistemas LiDAR actuales funcionan en condiciones adversas donde las nubes, la niebla, el polvo, la lluvia o el agua turbia inducen la dispersión. Esta limitación es un obstáculo crítico para los sistemas de navegación y detección 3D, lo que dificulta un funcionamiento sólido y seguro “.

“Aquí presentamos una técnica para la obtención de imágenes 3D no invasivas a través de medios de dispersión: la tomografía confocal difusa (CDT). Aplicamos esta técnica a un régimen de imágenes macroscópicas complejo y desafiante, modelando e invirtiendo la dispersión de fotones que viajan a través de un difusor grueso aproximadamente igual a 6 caminos libres de media de transporte, se propagan a través del espacio libre a un objeto oculto y se dispersan nuevamente a través del difusor.

“Nuestra idea es que un diseño de hardware basado específicamente en sistemas de escaneo confocal (como los LiDAR comerciales), que combina detectores emergentes sensibles a un solo fotón, con precisión de picosegundos y transformaciones de procesamiento de señales recientemente desarrolladas, permite una solución aproximada eficiente a este desafío problema inverso “.

En esencia, señaló que los investigadores envían un láser de pulso al nivel de picosegundos. 1 picosegundo equivale a 0,000000000001 segundos. Es un rayo láser de pulso realmente corto. Tanto el sensor como el rayo láser son confocales. Esto significa que ambos están en el mismo lugar en el espacio. Es como una pizza con piñas en mi estómago.

A continuación, sale y golpea el trozo de espuma. La mayoría de los fotones se dispersan, pero algunos eventualmente se dispersan y golpean el material del otro lado. Entonces, algunos de esos fotones se dispersan hacia atrás, y algunos de ellos atraviesan la espuma del otro lado.

“Lo que están haciendo muy inteligentemente es cortar esto, y eso es tomografía. Si alguna vez ha tenido un escaneo de gato, esa es la tomografía por emisión de positrones y la tomografía significa como escribir con cortes. Básicamente, tomas estos cortes a una velocidad realmente rápida y luego los reconstruyes para crear la imagen real que estás buscando “.

“CDT permite la obtención de imágenes 3D no invasivas a través de medios de dispersión gruesos, un problema que requiere modelar e invertir la dispersión difusiva y la propagación de la luz en el espacio libre a un objeto oculto y viceversa. El enfoque opera con una complejidad computacional baja a un rango relativamente largo para volúmenes de imágenes grandes del tamaño de un metro ”.

Explicó que los investigadores están hablando de cómo pueden crear esta imagen usando un láser de pulso muy, muy corto con un diodo ultrasensible en cascada, que es, en esencia, una cámara súper sensible que está muy bien sintonizada. La cita a continuación es donde el Dr. Know-It-All señala dónde Tesla podría usar esto:

“Introducimos una aproximación eficiente a este modelo, que aprovecha nuestro procedimiento de adquisición confocal, donde la fuente de iluminación y el detector comparten una ruta óptica, y las mediciones se capturan iluminando e imaginando una cuadrícula de puntos en la superficie del medio de dispersión. “

“Esta aproximación da como resultado un modelo de formación de imágenes convolucional simplificado”.

Señaló que los investigadores están hablando de un modelo de formación de imágenes convolucional. Él ha terminado videos sobre redes neuronales convolucionales y señaló que aquellos que las han visto pueden ver cómo se está sincronizando.

“Buscamos recuperar el albedo del objeto oculto pag. En este caso, existe una solución de forma cerrada utilizando el filtro de deconvolución de Wiener y un filtro inverso confocal A-1 utilizado en las imágenes sin línea de visión “.

“En particular, la complejidad computacional de este método es O (N3 log N) por un NxNxN volumen de medición, donde el paso más costoso es tomar la Transformada Rápida de Fourier 3D “.

La NxNxN representa un volumen de medición tridimensional. El Dr. Know It All señaló que lo que están diciendo en las citas anteriores es que los investigadores han creado una forma de resolver este problema de manera oportuna. Esto es importante ya que Tesla se centra en una visión completa y no tiene sistemas LiDAR, láseres ni diodos en cascada. Sin embargo, Tesla aún puede usar esta investigación para mejorar su visión en circunstancias climáticas extremas como niebla, polvo o lluvia intensa.

“Lo que estoy pensando es que pueden tomar una tomografía temporal en lugar de una espacial. Entonces, básicamente, lo que pueden hacer es cortar su visión. Es muy probable que puedan mirar las cosas que están frente a ellos porque esa es la dirección en la que viaja el automóvil “.

Otra cosa que notó es que durante estas condiciones extremas, lo más probable es que el automóvil conduzca lentamente, como lo haría un humano si estuviera operando el vehículo, y mientras conduce lentamente, la cámara podría estar cortando todas las vistas y estar mirando en lo que puede ver.

“A medida que se mueve por el espacio, efectivamente lo que estás haciendo es mover la relación entre el auto y digamos que hay un ciervo en la carretera. Ese es un escenario realmente malo. Tienes el coche aquí, tienes un ciervo aquí y tienes niebla en el medio. Lo que sucede aquí es que el automóvil se mueve y está cambiando su orientación y ubicación relativas con respecto a este ciervo. Y lo que puede hacer al tomar las diferentes cámaras es cortar las vistas y puede comenzar a obtener algunos fotones a la vez que describen que hay algo allí y puede comenzar a resolver ese objeto. Y mi predicción es que cuando echemos un vistazo a esta versión 9 de la versión Beta de conducción autónoma completa, estos coches podrán ver más lejos a través de la lluvia, la niebla, etc. que los seres humanos “.

Ampliando ese pensamiento, señaló que estos fotones pueden retener la memoria de todos los píxeles que ingresan lentamente y pueden formar una imagen de ese objeto con el tiempo. Los humanos, al comparar, dependen de poder verlo instantáneamente.

Los humanos no podemos ver a través de una densa niebla porque nuestros ojos no funcionan así. Señaló que estas cámaras en los vehículos Tesla pueden funcionar como un telescopio. Usó el telescopio Hubble como ejemplo. Se necesitan horas de fotos para crear esas hermosas fotos espaciales.

“Lo que el Tesla puede hacer, obviamente de una manera más en tiempo real, es poder atraer los pocos píxeles que están regresando. Los pocos fotones que regresan a su detector y básicamente pueden reconstruir una escena tridimensional a partir de muy pocos datos. Los seres humanos han conducido unos 30 millones de millas en Teslas, han conducido a través de tormentas de polvo, han conducido a través de la niebla, han conducido a través de ventiscas, han conducido a través de lluvias intensas, etc. Estamos proporcionando esos datos a Tesla. Es capaz de curar los datos “.

Señaló que a través de esto se puede entrenar todo el sistema de IA. Mientras conduce, las cámaras ven al ciervo y, cuando lo ve, frena. Esencialmente, Tesla estaría haciendo pseudo-CDT, explicó. Puedes ver el video completo aquí.

Y ahora, nos vemos en la siguiente noticia. ¡Hasta la vista!

¡Compártelo!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *