Environment reconstruction on disparity images using surface features and Generative Adversarial Networks (2020)
- Authors:
- Autor USP: MATIAS, LUCAS PERES NUNES - ICMC
- Unidade: ICMC
- Sigla do Departamento: SSC
- DOI: 10.11606/D.55.2020.tde-27072020-163017
- Subjects: VEÍCULOS AUTÔNOMOS; PROCESSAMENTO DE IMAGENS; SEGURANÇA NO TRÂNSITO; VISÃO COMPUTACIONAL; ROBÓTICA
- Keywords: Depth estimation; Disparity images; Estimação de profundidade; GAN; GAN; Image inpainting; Imagens de disparidade; Object removal; Reconstrução de imagens; Remoção de objetos
- Agências de fomento:
- Language: Inglês
- Abstract: O estudo e desenvolvimento de veículos autônomos vem se tornando cada vez mais relevante. Para que estes veículos possam trafegar em um ambiente urbano real é necessário alto grau de confiabilidade para garantir a segurança dos passageiros e dos pedestres. Para isso, os sensores e algoritmos utilizados para auxiliar na tomada de decisão durante a direção autônoma necessitam do máximo de informação disponível, para que a análise do ambiente seja o mais ampla possível. Assim como um motorista humano, o computador deve analisar o ambiente ao seu redor e avaliar as possíveis medidas a serem tomadas afim de alcançar o destino final do trajeto de modo seguro. Contudo, apesar dos sensores coletarem informações com alta precisão, métodos computacionais possuem uma desvantagem em relação à cognição humana. Um motorista humano pode analisar as informações do ambiente ao seu redor e deduzir informações oclusas, mais especificamente informações sobre o ambiente por de trás de diferentes objetos e estruturas. Para métodos computacionais, extrair esta informação omissa é um desafio. Trabalhos recentes na área de processamento de imagens propõe métodos para estimar a área por trás de regiões especificadas. Porém, estes métodos são aplicados a imagens RGB, onde o foco é um resultado visualmente satisfatório. Ao lidarmos com imagens de disparidade, que codificam dados de profundidade, é necessária uma estimativa coerente e precisa, uma vez que quaisquer ruídos na imagem, serão intensificadosna reconstrução tridimensional e influenciarão na interpretação do ambiente ao redor pelos algoritmos de tomada de decisão. Neste trabalho lidamos com a hipótese de que, utilizando aspectos específicos dos dados de disparidade e profundidade como orientação para a estimativa de disparidade, é possível alcançar uma reconstrução coerente do ambiente por de trás de uma região demarcada. Os resultados apontam para a validação dessa hipótese, uma vez que alcançamos - ao fim deste trabalho - uma reconstrução contínua do ambiente com poucos ruídos.
- Imprenta:
- Publisher place: São Carlos
- Date published: 2020
- Data da defesa: 26.03.2020
- Este periódico é de acesso aberto
- Este artigo é de acesso aberto
- URL de acesso aberto
- Cor do Acesso Aberto: gold
- Licença: cc-by-nc-sa
-
ABNT
MATIAS, Lucas Peres Nunes. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks. 2020. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2020. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/. Acesso em: 10 nov. 2024. -
APA
Matias, L. P. N. (2020). Environment reconstruction on disparity images using surface features and Generative Adversarial Networks (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/ -
NLM
Matias LPN. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks [Internet]. 2020 ;[citado 2024 nov. 10 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/ -
Vancouver
Matias LPN. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks [Internet]. 2020 ;[citado 2024 nov. 10 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-27072020-163017/
Informações sobre o DOI: 10.11606/D.55.2020.tde-27072020-163017 (Fonte: oaDOI API)
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas