ESCUELA DE DOCTORADO

 
Tesis Doctorales de la Universidad de Alcalá
TOWARDS TRUSTWORTHY AND EXPLAINABLE GRAPH-BASED APPROACHES FOR MULTI-MODAL MOTION PREDICTION
Autor/aCarrasco Limeros, Sandra
DepartamentoTeoría de la Señal y Comunicaciones
Director/aSotelo Vázquez, Miguel Ángel
Codirector/aFernández Llorca, David
Fecha de defensa30-01-2024
CalificaciónSobresaliente cum laude
ProgramaTecnologías de la Información y las Comunicaciones (RD 99/2011)
Mención internacionalNo
ResumenEl auge de los vehículos autónomos (AVs) como una posibilidad real de transporte se ha convertido en un hito en la historia de la industria automovilística. Esta transformación promete grandes oportunidades, desde carreteras más seguras hasta una movilidad democratizada. Sin embargo, conlleva una serie de retos tanto técnicos como sociales y éticos. Los sistemas de predicción del movimiento son una pieza clave para superar estos retos. Estos sistemas están diseñados para predecir posibles comportamientos de conducción de los usuarios de la vía pública -ya sean vehículos, ciclistas o peatones- con el fin de alimentar los sistemas posteriores de toma de decisiones y planificación para que puedan tomar decisiones más informadas teniendo en cuenta todo el contexto de la escena. Sin embargo, la tarea de predecir el movimiento va más allá de cálculos matemáticos o inferencia probabilística. Existe una responsabilidad ética en el uso de estos sistemas en las vías urbanas, un entorno de alto riesgo lleno de complejidades e incertidumbres. Cada una de las predicciones de estos sistemas, cuando se incorporan a vehículos inteligentes que circulan por nuestras carreteras, tiene implicaciones morales para la seguridad humana, la preservación de la confianza pública y la viabilidad a largo plazo de los vehículos inteligentes. Esta doble responsabilidad, eficacia técnica e integridad social, nos lleva a los temas generales que han guiado esta investigación: la fiabilidad y, más concretamente, la explicabilidad. Un sistema fiable promete predicciones fidedignas a pesar de las incertidumbres intrínsecas a los entornos urbanos, con su dinamismo y complejidad. Además, sus mecanismos internos han de ser transparentes para poder comprender la causa de errores e imprecisiones, aprender de ellos y evitarlos en futuras actualizaciones. Por otro lado, la explicabilidad actúa como puente entre la complejidad de los algoritmos que hay detrás de los sistemas de predicción de movimiento y los usuarios humanos. A diferencia de la mayoría de los modelos basados en el aprendizaje profundo, los cuales se consideran una "caja negra", un modelo explicable hace posible comprender sus mecanismos subyacentes, lo que permite a los humanos entender, cuestionar, y verificar sus resultados. Por tanto, la innovación responsable en el campo de los sistemas de navegación autónoma debe tener siempre como elemento fundamental la explicabilidad y la fiabilidad. Esto implica que el avance de esta tecnología va más allá del ámbito académico e industrial y debe guiarse por el mismo nivel de compromiso con las normas éticas y el bienestar público. Esta Tesis consta de un compendio de cuatro artículos. El hilo conductor de estos cuatro artículos se centra en la explicabilidad y la fiabilidad de los sistemas de predicción del movimiento de los vehículos autónomos en escenarios urbanos. En cada artículo, abordamos objetivos diferentes y utilizamos metodologías distintas para contribuir de forma única a este objetivo general. El primer artículo, " Urban Intersection Classification: A comparative analysis", sienta las bases al destacar la necesidad de disponer de información contextual precisa, así como de datos de entrenamiento fiables y de alta calidad. Esto crea una base sólida para cualquier sistema posterior que se construya sobre ella. En segundo lugar, el artículo "SCOUT: Socially COnsistent and UndersTandable Graph Attention Network for Trajectory Prediction of Vehicles and VRUs" se centra en la importancia de modelar las interacciones sociales entre los distintos agentes de la escena urbana para predecir con precisión el comportamiento vial. Aquí, no sólo nos centramos en lograr un buen rendimiento de predicción, sino también en garantizar la coherencia social y la habilidad de generalizar a diversos entornos, contribuyendo así al objetivo de mejorar la fiabilidad. Además, este diseño hace que el modelo sea intrínsecamente más interpretable y adecuado para aplicar visualización de la atención y la técnica de gradientes integrados con el fin de mejorar la explicabilidad. En tercer lugar, el artículo "Towards trustworthy multi-modal motion prediction: Holistic evaluation and interpretability of outputs" presenta un marco sólido y exhaustivo para evaluar los sistemas de predicción de movimiento multimodales, incluyendo un análisis de robustez, con el objetivo de lograr modelos más fiables. La capa de predicción de intención ayuda a mejorar la calidad de las predicciones, así como su interpretabilidad, lo que es confirmado a través de nuestra encuesta a expertos. Por último, el artículo "Towards Explainable Motion Prediction using Heterogeneous Graph Representations" culmina con un estudio en profundidad sobre la explicabilidad en sistemas de predicción de movimiento multimodales basados en GNNs, destacando retos y oportunidades, así como su relevancia para usuarios, desarrolladores y organismos reguladores. En resumen, los cuatro artículos que dan origen a esta Tesis constituyen una narración cohesionada que comienza con los fundamentos del diseño de vehículos autónomos fiables mediante una comprensión exhaustiva del contexto urbano y concluye con la necesidad de modelos explicables avanzados. Cada uno de estos artículos complementa y contribuye a los demás, proporcionando una imagen holística de los retos y las oportunidades que se encuentran en el desarrollo de sistemas de predicción de movimiento multimodales, fiables y explicables para los vehículos autónomos en escenarios urbanos.