Use este identificador para citar ou linkar para este item: http://repositorio.ufes.br/handle/10/9718
Título: Método iterativo para constância de cor em vídeos utilizando cores identificadas nas cenas
Autor(es): Simão, Josemar
Orientador: Vassallo, Raquel Frizera
Coorientador: Schneebeli, Hans Jorg Andreas
Data do documento: 15-Ago-2016
Editor: Universidade Federal do Espírito Santo
Resumo: Os algoritmos de constância de cor buscam corrigir as cores das imagens capturadas sob iluminação desconhecida para apresentá-las como se tivessem sido capturadas sob uma iluminação conhecida. Quando se trabalha com sequencias de imagens, há variação de iluminação entre elas, o que dificulta a aplicação de diversos algoritmos de visão computacional. Corrigir as imagens e apresentá-las como se estivessem sob a mesma iluminação, simplifica consideravelmente a aplicação de diversos destes algoritmos. Neste trabalho, as cores de uma sequência de imagens são corrigidas individualmente para que estas tenham a iluminação de um quadro de referência, em geral, o primeiro quadro. Para isto, é utilizada uma transformação linear geral com nove parâmetros, chamada aqui de matriz de mapeamento de cores. Um processo de otimização, por exemplo, mínimos quadrados, é necessário para a obtenção da matriz de mapeamento de cores quando o número de cores de referência for maior que o número de canais de cor. Isto é alcançado pelo cálculo da matriz pseudo-inversa. Um processo iterativo pode usar as cores de uma imagem para corrigir as cores da imagem seguinte, utilizando regiões comuns a ambas imagens. Para isso, um conjunto de cores da imagem anterior compõe as amostras de referência, e as cores da imagem atual, provenientes de regiões correspondentes às da imagem anterior, compõem as amostras capturadas. Estas amostras são utilizadas para obtenção da matriz de mapeamento de cores. Como o campo visual varia ao longo da sequência, as regiões utilizadas no cálculo da correção devem ser ajustadas a cada iteração. Este processo iterativo está presente em três métodos de correção de cores desenvolvidos nessa tese. O primeiro método, usado como base, e denominado Método usando Amostras de Referência da Imagem Anterior (MAIA), considera apenas sequências de imagens com variação de iluminação e sem movimento relativo entre a câmera e a cena. Um filtro temporal que utiliza um conjunto de imagens anteriores para produzir amostras de referência mais estáveis é aplicado para atenuar os efeitos do ruído nas imagens, dando origem ao Método do Filtro Temporal para Amostras de Referência (MFTA). Este método, acoplado a um esquema de tracking de regiões coloridas, permite a correção de cores em sequências de imagens com movimento relativo entre a câmera e a cena. No entanto, o método ainda apresenta uma sensibilidade grande aos ruídos levando a uma degradação da qualidade das imagens corrigidas. Para contornar este problema, as amostras de referência e as amostras capturadas de um conjunto de iterações anteriores são utilizadas em um filtro temporal caracterizando o terceiro método chamado Método do Filtro Temporal para Transformações (MFTT), que apresenta resultados que permitem o seu uso em diversas áreas, incluindo Robótica Móvel.
Color constancy algorithms try to correct the colors of images captured under unknown lighting and present them as if they had been captured under a known lighting. When working with images sequences, there are lighting variations between the images, which hinders the application of various computer vision algorithms. Correcting the images and presenting them as if they were taken under the same lighting enables the application of various of these algorithms. In this work, the colors of images in a sequence are corrected individually so that they have the same lighting of a reference frame, in general, the first frame. To do that, general linear transformation with nine parameters is used, called here color mapping matrix. An optimization process, for example, least squares method, is necessary to obtain the color mapping matrix when the number of reference colors is higher than the number of color channels. This is achieved through the calculation of the pseudo-inverse matrix. An iterative process can use the colors of an image to correct the color of the next image, using regions common to both images. A set of colors from the former image composes the reference sample, and the colors of the next image, from regions corresponding to the those of the reference image, compose the captured sample. These samples are used to obtain the color mapping matrix. As the visual field varies throughout the sequence, the regions common to images in the sequence must be adjusted for each iteration. Three color correction methods based on this approach are shown in this thesis. The first method, the reference method, is called Method using Reference Samples from the Previous Image (MSPI), and can only be applied to image sequences with lighting variation and no relative movement between the camera and the scene, i.e., no need to adjust the regions. A temporal filter that uses a set of previous images to produce more stable reference samples is applied to attenuate the noise effects on images, giving origin to the Method of the Temporal Filter for Reference Samples (MTFS). This method, coupled with a scheme for tracking the regions with identified colors, allows color correction in sequences of images with relative movement between the camera and the scene. However, the method still presents a high sensibility to the image noise leading to a degradation of the corrected images. Using reference samples and the captured samples of a set of previous iterations and a temporal filter, the third method called Method of the Temporal Filter for Transformations (MTFT), presents results that allow its use in various areas, including Mobile Robotic
URI: http://repositorio.ufes.br/handle/10/9718
Aparece nas coleções:PPGEE - Teses de doutorado

Arquivos associados a este item:
Arquivo TamanhoFormato 
tese_5145_tese_josemar_2016.pdf7.5 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.