iCaveats
Integración de componentes y arquitecturas para la visión
embebida en aplicaciones de transporte y seguridad

Proyecto iCaveats: Integración de componentes y arquitecturas para la visión embebida en aplicaciones de transporte y seguridad

Coordinador: Ricardo Carmona Galán (CSIC)

 

Ministerio
Feder

 

 

 

 

Subproyectos: 

  • TEC2015-66878-C3-1-R
    Título: Diseño de sistemas integrados de visión 2D y 3D, de bajo consumo de potencia, para redes de sensores y plataformas autónomas
    IP: Ricardo Carmona Galán
    Instituto de Microelectrónica de Sevilla
    CSIC-Universidad de Sevilla
  • TEC2015-66878-C3-2-R 
    Título: Diseño e implementación de arquitecturas adaptadas para la conversión analógico-digital y el procesamiento de imágenes a niveles bajo, medio y alto 
    IP: Ginés Doménech Asensi, 
    Dpto. de Electrónica, Tecnología de Computadoras y Proyectos
    Universidad Politécnica de Cartagena
  • TEC2015-66878-C3-3-R 
    Título: Sistemas de visión integrados para la extracción de características, con recolección y gestión energética on-chip, para plataformas móviles no tripuladas 
    IP’s: Paula López Martínez y Víctor M. Brea Sánchez 
    Centro Singular de Investigación en Tecnoloxías da Información Universidade de Santiago de Compostela 

 

Resumen del proyecto:

La incorporación de sistemas de visión embebida en plataformas para el transporte inteligente de personas y mercancías o en aplicaciones de vigilancia, seguridad y defensa supondría un importante salto tecnológico. Sin embargo, la implementación de la visión artificial mediante un sistema compacto, autónomo y con un bajo consumo de potencia no es un problema sencillo de resolver. El estímulo visual contiene una cantidad ingente de datos. Para procesarlos es necesario desarrollar un esfuerzo computacional considerable, lo que en término prácticos significa ser capaz de realizar varios millones operaciones por segundo. Conseguir estas prestaciones con un presupuesto energético restringido es muy complicado. En un esquema convencional, en el que tras la captura de las imágenes se procede a su digitalización y almacenamiento en memoria para después ser procesadas, nos encontraríamos con especificaciones imposibles para el sensor, para el convertidor analógico/digital, para el procesador y la memoria. 
Una alternativa viable, como hemos evidenciado en trabajos anteriores,  consiste en aprovechar el paralelismo inherente a las tareas de visión temprana. Para ello trasladaríamos parte del procesamiento de bajo nivel al plano focal.  Una implementación distribuida de los recursos de procesamiento supondría evitar la transmisión de datos desde y hacia la memoria de imágenes. Por otro lado, si se usan bloques de circuito analógicos y de señal mixta, estos pueden ser muy eficientes. El principal problema de esta aproximación es que una implementación ad hoc carece de la flexibilidad necesaria para trasladarla a otros campos de aplicación, y además resulta difícil de manejar para los expertos en visión artificial y desarrolladores de aplicaciones que trabajan con la información en niveles de abstracción más altos. Tanto es así que se ha constituido muy recientemente un importante consorcio industrial para la creación de estándares para la aceleración hardware de la visión por computador y el procesamiento de señales sensoriales. El estándar OpenVX consiste precisamente en la definición de una capa previa al hardware para ser utilizada por los desarrolladores de aplicaciones de visión que necesiten de una optimización del consumo de potencia.
Este proyecto tiene como intención capitalizar el conocimiento previo de nuestros grupos de investigación mediante el desarrollo de una librería de componentes y arquitecturas en hardware compatibles con este esquema de implementación de sistemas de visión integrados, de propósito general y con bajo consumo de potencia. En esta librería incorporaremos bloques de procesamiento a bajo y medio nivel, nuevas capacidades sensoras como el conteo de fotones o la estimación directa e indirecta del tiempo de vuelo, y aspectos de sistema como la gestión de la energía y la interfaz con otros chips de procesamiento digital de señal. Exploraremos alternativas tecnológicas que permitan una implementación eficiente de las funciones definidas en el estándar OpenVX, de modo que resulten transparentes al desarrollador de aplicaciones y al programador de algoritmos de visión artificial.
Para demostrar la utilidad de esta metodología vamos a construir un sistema de visión en un único chip para aplicaciones de transporte y seguridad, y desarrollaremos entornos de demostración que nos permitan exponer el potencial de esta aproximación a la visión embebida.
 

>