
Visión y aprendizaje en el contexto de la exploración
ETH Zürich
Versandkostenfrei!
Versandfertig in 1-2 Wochen
29,99 €
inkl. MwSt.
PAYBACK Punkte
15 °P sammeln!
Las redes generativas antagónicas (GAN) han tenido tremendas aplicaciones en visión artificial. Sin embargo, en el contexto de la ciencia espacial y la exploración planetaria, la puerta está abierta para avances importantes. Presentamos herramientas para manejar datos planetarios de la misión Chang'E-4 y presentamos un marco para la transferencia de estilo neuronal utilizando la coherencia de ciclo de imágenes renderizadas. También presentamos una nueva canalización en tiempo real para localización y mapeo simultáneos (SLAM) y odometría inercial visual (VIO) en el contexto de los ro...
Las redes generativas antagónicas (GAN) han tenido tremendas aplicaciones en visión artificial. Sin embargo, en el contexto de la ciencia espacial y la exploración planetaria, la puerta está abierta para avances importantes. Presentamos herramientas para manejar datos planetarios de la misión Chang'E-4 y presentamos un marco para la transferencia de estilo neuronal utilizando la coherencia de ciclo de imágenes renderizadas. También presentamos una nueva canalización en tiempo real para localización y mapeo simultáneos (SLAM) y odometría inercial visual (VIO) en el contexto de los rovers planetarios. Aprovechamos la información previa de la ubicación del módulo de aterrizaje para proponer un enfoque SLAM a nivel de objeto que optimiza la pose y la forma del módulo de aterrizaje junto con las trayectorias de la cámara del rover. Como paso de perfeccionamiento adicional, proponemos utilizar técnicas de interpolación entre muestras temporales adyacentes; videlicet sintetiza imágenes inexistentes para mejorar la precisión general del sistema. Los experimentos se realizan en el contexto del Iris Lunar Rover, un nano-rover que se desplegará en terreno lunar en 2021 como buque insignia de Carnegie Mellon, siendo el primer rover no tripulado de América en pisar la Luna.