Page 8 - Boletín Junio 2022
P. 8

Aprendiza
generalmente a las limitaciones de nuestros modelos. A esa se le llama incertidumbre epistémica. Si tuviéramos una cantidad infinita de datos, y modelos perfectos, la podríamos reducir, pero en la práctica, tenemos datos en cantidad limitada y modelos imperfectos. Por ende, nuestra hipótesis es que es crucial poder estimar esta incertidumbre epistémica y que, sin ésta, tendríamos modelos con exceso de confianza. En particular, cuando existen características significativamente distintas entre los datos de entrenamiento y los datos de prueba (problema conocido como ‘covariate shift’), es probable que las estimaciones proporcionadas por nuestros modelos no sean de buena calidad. ¿Cómo detectar estos casos y producir estimaciones de incertidumbre que reflejen tanto las incertidumbres aleatorias y epistémicas?.
En el proyecto “¿Son los sistemas de aprendizaje profundo demasiado confiados? Un caso de estudio en la predicción
de trayectorias humanas”, aceptado en la convocatoria de Conacyt Paradigmas y Controversias de la Ciencia 2022, intentaremos contestar a algunas de estas preguntas con un caso de estudio específico, el de la predicción de trayectorias humanas. Usaremos conjuntos de datos abiertos de trayectorias humanas y de datos de navegación de coches autónomos para alcanzar los siguientes objetivos:
• Proponer criterios cuantitativos de evaluación de la incertidumbre, así como métodos de calibración de dichas incertidumbres, en los métodos de predicción de trayectorias;
• Comparar con dichos criterios los métodos más representativos del estado del arte
• Estudiar el uso de métodos de Bayesian Deep Learning (BDL), o Aprendizaje Profundo Bayesiano, para cuantificar la incertidumbre epistémica en predicción de trayectorias.
     8
Boletín Mensual de Información
Sistemas de Aprendizaje Profundo
 
























































































   6   7   8   9   10