Redacción. Investigadores del departamento de Óptica de la Universidad de Granada han desarrollado un nuevo algoritmo de captura de imágenes de alto rango dinámico o HDR (High Dynamic Range) que permite reducir el tiempo de captura o bien el nivel de ruido en la imagen resultante.
Este avance científico en las imágenes en HDR no sólo tiene aplicaciones en el ámbito de la fotografía, sino también en los sistemas de visión artificial, imágenes médicas, sistemas de vigilancia, sistemas de control de calidad en cadenas de montaje, imágenes por satélite, sistemas de conducción asistida o automática de vehículos, etc.
La investigación, publicada en la revista Applied Optics, ha permitido generar un algoritmo que, basándose en la manera en la que cada cámara responde a la luz, adapta los tiempos de captura de las diferentes imágenes de forma automática e instantánea, para reducir el tiempo total de captura, adaptándose a las necesidades de cada escena capturada.
Aunque la aplicación de técnicas HDR más llamativa y vistosa es la fotografía, estas técnicas cobran mucha importancia en los sistemas de visión robótica. “Al igual que el sistema visual humano posee un alto rango dinámico, los sistemas de visión artificial necesitan de este tipo de técnicas para poder comportarse de manera similar o incluso superior a nuestro sistema visual”, explica el autor principal de este trabajo, Miguel Ángel Martínez Domingo, del departamento de Óptica de la Universidad de Granada.
El tiempo de exposición es el tiempo que el sensor de una cámara está expuesto a la luz durante la captura de una imagen. En una exposición corta, las zonas oscuras de la escena aparecen subexpuestas (negras) en la imagen final. En una exposición larga, por el contrario, las zonas más luminosas de la escena aparecen saturadas o quemadas (blanco).
Zonas subexpuestas o saturadas. “Por lo general, en cualquier escena capturada en nuestro día a día, aunque nuestra cámara ajuste automáticamente el tiempo de exposición, siempre habrá zonas subexpuestas o saturadas. Esto sucede debido a que el rango de luminosidades (o rango dinámico) que el sensor de una cámara convencional puede captar correctamente en un solo disparo, es menor que el rango dinámico presente en la escena. Es aquí donde las técnicas de captura HDR cobran sentido”, explica Martínez Domingo.
Ya no sólo es importante que la imagen final sea bonita o realista a ojos de un observador humano: también puede ser importante, por ejemplo, destacar con muy bajo nivel de ruido los detalles entre un componente muy brillante y otro muy oscuro en un circuito integrado. Por lo tanto, los niveles de ruido de la imagen resultante están reñidos con el tiempo total de captura de las diferentes imágenes necesarias.
El algoritmo desarrollado por los científicos de la UGR permite al usuario optimizar el balance entre un tiempo reducido de captura y un menor nivel de ruido en la imagen resultante. El nivel de ruido es menor cuantas más exposiciones se capturen para formar la imagen HDR, pero utilizar muchas exposiciones diferentes incrementaría demasiado el tiempo de captura. “De este modo el nuevo algoritmo no se adapta solo a la cámara que estemos utilizando y a la escena que estemos capturando, sino también a las necesidades de la aplicación que estemos desarrollando”, apunta el investigador.
Por lo tanto, “por primera vez un algoritmo de captura de imagen HDR se adapta a cualquier cámara, cualquier escena y cualquier aplicación, de forma óptima y sencilla, sin necesidad de utilizar complejos sistemas ópticos o arquitecturas de sensores no convencionales».