Artificial data generation pipeline for visual grasping deep learning (2023)
- Authors:
- Autor USP: CASTELUCI, LARISSA CASSADOR - EESC
- Unidade: EESC
- Sigla do Departamento: SEM
- DOI: 10.11606/D.18.2023.tde-16062023-112737
- Subjects: APRENDIZADO COMPUTACIONAL; VISÃO COMPUTACIONAL; ROBÓTICA
- Keywords: Aprendizagem profunda; Dados sintéticos; Detecção de preensão com visão
- Language: Inglês
- Abstract: O advento de algoritmos de aprendizagem profunda mudou o panorama da área de preensão robótica. Se antes a área se focava em métodos analíticos e modelagem de preensão para planejar e analisar a qualidade de preensão de objetos, hoje esse encargo recaí sobre os algoritmos de inteligência artificial. Embora esses algoritmos tenham apresentado resultados surpreendentes na última década, eles também possuem desvantagens se comparados a técnicas de modelagem de preensão. A principal desvantagem é a necessidade de treinamento da rede em um conjunto de dados amplo e representativo do problema. Para aplicações especializadas, pode ser necessário um dataset customizado com objetos específicos. Mas a criação desses datasets não é uma tarefa fácil. Para a área de preensão robótica, a geração desses dados é mais complexa que a geração de conjuntos de dados para classificação e detecção de objetos, uma vez que requer experimentos em laboratórios. A obtenção desses dados de forma manual pode ser demorada e ser suscetível a erros. Nesse contexto, a geração de dados de forma artificial, por renderização de dados e simulação, se torna uma alternativa viável para geração de dados para treinamento de redes. Por sua vez, essa estratégia também apresenta os seus problemas. A principal entre elas é denominada de reality gap. Ou seja, é a diferença que existe em dados simulados e dados obtidos na realidade. Tentando mitigar esse efeito, foram elaboradas técnicas para compensar essa diferença.Abordagens relevantes nesse sentido são a geração de dados foto realísticos e a domain randomization. Nesse trabalho, é disponibilizada uma ferramenta para a criação de datasets de preensão robótica com a configuração de objetos. Foram realizados experimentos que comparam os resultados de uma rede neural treinada nesse dataset customizado com a mesma rede treinada em um dataset estado da arte em ambiente de laboratório. Os resultados demostram que a ferramenta é capaz de gerar datasets viáveis para o treinamento de redes neurais, e que elas produzem resultados viáveis
- Imprenta:
- Publisher place: São Carlos
- Date published: 2023
- Data da defesa: 17.04.2023
- Este periódico é de acesso aberto
- Este artigo é de acesso aberto
- URL de acesso aberto
- Cor do Acesso Aberto: gold
- Licença: cc-by-nc-sa
-
ABNT
CASTELUCI, Larissa Cassador. Artificial data generation pipeline for visual grasping deep learning. 2023. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2023. Disponível em: https://www.teses.usp.br/teses/disponiveis/18/18162/tde-16062023-112737/. Acesso em: 03 jan. 2026. -
APA
Casteluci, L. C. (2023). Artificial data generation pipeline for visual grasping deep learning (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/18/18162/tde-16062023-112737/ -
NLM
Casteluci LC. Artificial data generation pipeline for visual grasping deep learning [Internet]. 2023 ;[citado 2026 jan. 03 ] Available from: https://www.teses.usp.br/teses/disponiveis/18/18162/tde-16062023-112737/ -
Vancouver
Casteluci LC. Artificial data generation pipeline for visual grasping deep learning [Internet]. 2023 ;[citado 2026 jan. 03 ] Available from: https://www.teses.usp.br/teses/disponiveis/18/18162/tde-16062023-112737/ - Determining leaf stomatal properties in citrus trees utilizing machine vision and artifcial intelligence
- Revisão de algoritmos de redes neurais artificiais para a detecção de objetos
- Deep reinforcement learning control of autonomous terrestrial wheeled robots in a challenge task
- Deep reinforcement learning control of an autonomous wheeled robot in a challenge task: combined visual and dynamics sensoring
Informações sobre o DOI: 10.11606/D.18.2023.tde-16062023-112737 (Fonte: oaDOI API)
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
