Environment reconstruction on disparity images using surface features and Generative Adversarial Networks (2020)
- Authors:
- Autor USP: MATIAS, LUCAS PERES NUNES - ICMC
- Unidade: ICMC
- Sigla do Departamento: SSC
- DOI: 10.11606/D.55.2020.tde-27072020-163017
- Subjects: VEÍCULOS AUTÔNOMOS; PROCESSAMENTO DE IMAGENS; SEGURANÇA NO TRÂNSITO; VISÃO COMPUTACIONAL; ROBÓTICA
- Keywords: Depth estimation; Disparity images; Estimação de profundidade; GAN; GAN; Image inpainting; Imagens de disparidade; Object removal; Reconstrução de imagens; Remoção de objetos
- Agências de fomento:
- Language: Inglês
- Abstract: O estudo e desenvolvimento de veículos autônomos vem se tornando cada vez mais relevante. Para que estes veículos possam trafegar em um ambiente urbano real é necessário alto grau de confiabilidade para garantir a segurança dos passageiros e dos pedestres. Para isso, os sensores e algoritmos utilizados para auxiliar na tomada de decisão durante a direção autônoma necessitam do máximo de informação disponível, para que a análise do ambiente seja o mais ampla possível. Assim como um motorista humano, o computador deve analisar o ambiente ao seu redor e avaliar as possíveis medidas a serem tomadas afim de alcançar o destino final do trajeto de modo seguro. Contudo, apesar dos sensores coletarem informações com alta precisão, métodos computacionais possuem uma desvantagem em relação à cognição humana. Um motorista humano pode analisar as informações do ambiente ao seu redor e deduzir informações oclusas, mais especificamente informações sobre o ambiente por de trás de diferentes objetos e estruturas. Para métodos computacionais, extrair esta informação omissa é um desafio. Trabalhos recentes na área de processamento de imagens propõe métodos para estimar a área por trás de regiões especificadas. Porém, estes métodos são aplicados a imagens RGB, onde o foco é um resultado visualmente satisfatório. Ao lidarmos com imagens de disparidade, que codificam dados de profundidade, é necessária uma estimativa coerente e precisa, uma vez que quaisquer ruídos na imagem, serão intensificadosna reconstrução tridimensional e influenciarão na interpretação do ambiente ao redor pelos algoritmos de tomada de decisão. Neste trabalho lidamos com a hipótese de que, utilizando aspectos específicos dos dados de disparidade e profundidade como orientação para a estimativa de disparidade, é possível alcançar uma reconstrução coerente do ambiente por de trás de uma região demarcada. Os resultados apontam para a validação dessa hipótese, uma vez que alcançamos - ao fim deste trabalho - uma reconstrução contínua do ambiente com poucos ruídos.
- Imprenta:
- Publisher place: São Carlos
- Date published: 2020
- Data da defesa: 26.03.2020
- Status:
- Artigo possui versão em acesso aberto em repositório (Green Open Access)
- Versão do Documento:
- Versão submetida (Pré-print)
- Acessar versão aberta:
-
ABNT
MATIAS, Lucas Peres Nunes. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks. 2020. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2020. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/. Acesso em: 14 abr. 2026. -
APA
Matias, L. P. N. (2020). Environment reconstruction on disparity images using surface features and Generative Adversarial Networks (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/ -
NLM
Matias LPN. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks [Internet]. 2020 ;[citado 2026 abr. 14 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/ -
Vancouver
Matias LPN. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks [Internet]. 2020 ;[citado 2026 abr. 14 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/
Informações sobre a disponibilidade de versões do artigo em acesso aberto coletadas automaticamente via oaDOI API (Unpaywall).
Por se tratar de integração com serviço externo, podem existir diferentes versões do trabalho (como preprints ou postprints), que podem diferir da versão publicada.
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
