Page 7 - Boletín Junio 2022
P. 7

Aprendiza
     ¿SON LOS SISTEMAS DE APRENDIZAJE PROFUNDO DEMASIADO CONFIADOS? UN CASO DE ESTUDIO EN PREDICCIÓN DE TRAYECTORIAS HUMANAS.
Dr. Jean Bernard Hayet
En los años más recientes, hemos sido testigos de avances fantásticos en el desarrollo de sistemas autónomos, por ejemplo con el auge de coches autónomos o de los robots repartidores. Para este tipo de sistemas que por definición tienen que interactuar con seres humanos (peatones en las banquetas, ciclistas, otros conductores) es crítico poder anticipar el movimiento de los agentes que los rodean para tomar decisiones de navegación informadas: ¿Frenar? ¿Pasar a otro carril? Para eso, la predicción del movimiento de múltiples agentes es fundamental.
    Numerosos métodos han sido desarrollados para este fin, algunos utilizan un tipo de redes neuronales llamadas modelos generativos profundos (como redes generadoras adversariales, auto-encodificadores variacionales), que están entrenadas para poder generar muestras de una distribución meta (en este caso, genera trayectorias “plausibles” dado un cierto contexto), otros utilizan redes neuronales profundas deterministas más clásicas. Sin embargo, muchos de ellos como en la mayoría de los sistemas de aprendizaje automático padecen de una debilidad: con base en su experiencia (es decir, lo que han podido extraer de los datos de entrenamiento) generan respuestas que potencialmente podrían no reflejar correctamente (¡o no reflejar del todo!) la incertidumbre que se debería de asociar a esas respuestas. La falta de precisión de los métodos de predicción de trayectorias actuales y su falta de capacidad en reflejar correctamente la incertidumbre en su salida, puede resultar en situaciones trágicas.
En mayo del 2016 se produjo un accidente con un sistema de conducción automatizada, el cual confundió el lado blanco de un remolque con el cielo brillante, ocasionando desafortunadamente la muerte del conductor. Identificar y cuantificar lo que un modelo no sabe, es fundamental para las aplicaciones de aprendizaje automático y los sistemas de toma de decisiones asociados.
Si el modelo mencionado anteriormente hubiera podido asignar un alto nivel de incertidumbre a sus predicciones erróneas, tal vez se hubiera podido tomar una mejor decisión y evitar el accidente. Ahora, si bien un sistema puede reflejar cierta incertidumbre, será la incertidumbre que pueda evaluar con base en sus datos de entrenamiento. Esta es la llamada incertidumbre aleatoria, la que corresponde a las variaciones naturales (por ruido, por ejemplo), observadas en los datos de entrenamiento. Otra forma de incertidumbre es la que viene asociada a la finitud de nuestros datos de entrenamiento y más
      Sistemas de Aprendizaje Profundo
Boletín Mensual de Información
7

























































































   5   6   7   8   9