I+D USAFES

Ayudando a crear ciudades adaptables en tiempo real

En el equipo de I+D de Zylk hemos desarrollado un sistema de análisis de vídeo procedente de cámaras de seguridad y videovigilancia. Estas cámaras están ubicadas en lugares donde personas y vehículos comparten espacio, ya sea en algún paso de peatones o parking. Este trabajo se enmarca en el proyecto USAFES, el cual está enfocado en la detección de situaciones anormales que puedan desembocar en un riesgo potencial tanto para peatones como conductores.

Los vídeos se han analizado con técnicas de Deep Learning, que permiten extraer de cada fotograma información relevante sobre la posición de las personas y los vehículos presentes en la escena, todo esto mediante la modelización de estos elementos como objetos. 

Estas técnicas nos aportan datos anónimos, ya que al extraer de los elementos sólo su posición y tamaño, se asegura la protección de datos (de las personas y los vehículos) e imposibilita la identificación de los objetos de la imagen. 

Tras el análisis de los vídeos, se ha llevado a cabo un proceso ETL (Extract, Transform, Load) de los datos en el que se han aislado los parámetros de interés para su procesado y posterior análisis. Para ello, se han utilizado herramientas Open Source del entorno Apache, concretamente, NiFi, Kafka, y Flink, implementando además algunas de las últimas funcionalidades que ofrece este stack de herramientas.  

Aplicando nuestros conocimientos previos en BigData, e implementando técnicas avanzadas de Inteligencia Artificial, se ha impulsado esta línea tecnológica en nuestro equipo, permitiéndonos ampliar nuestra experiencia en este ámbito.

Tras el procesamiento de la información y su recolección en una base de datos  relacional (MySQL) se propició la construcción de un dataset, que ha sido utilizado para crear un modelo de Machine Learning capaz de calcular el aforo de un escenario concreto, clusterizando los objetos por posición y monitorizando las áreas a las que han accedido personas o coches, durante el transcurso de las grabaciones.

Posteriormente, el aforo de la escena se ha utilizado para enriquecer los datos disponibles, añadiendo nueva información procedente del modelo de Inteligencia Artificial y su aprendizaje automático. Todo esto nos permite conocer, en tiempo real, el porcentaje de ocupación de cualquier área seleccionada. 

En conclusión, se ha estudiado la viabilidad de la implementación del modelado de Inteligencia Artificial en una arquitectura de flujo de datos convencional. Lo mencionado anteriormente es uno de los grandes retos en esta área y ha sido resuelto satisfactoriamente en los casos de uso propuestos.

Como último paso previo a la producción de esta tecnología, se ha elaborado un vídeo demostrativo. En él se navega a través de los resultados obtenidos a partir de la reconstrucción del tamaño y posición de los elementos detectados en la imagen. También se incluyen los gráficos del estudio previo de los datos, de los cuales se extrajo la información necesaria para el desarrollo del modelo de Machine Learning.

 

 

00

More Blog Entries

thumbnail
thumbnail

0 Comments