Autonomous driving: learning to make decisions in uncertain environments (2023)
- Authors:
- Autor USP: SILVA, JÚNIOR ANDERSON RODRIGUES DA - ICMC
- Unidade: ICMC
- Sigla do Departamento: SSC
- DOI: 10.11606/T.55.2023.tde-08012024-180517
- Subjects: VEÍCULOS AUTÔNOMOS; ROBÓTICA; INTELIGÊNCIA ARTIFICIAL; APRENDIZADO COMPUTACIONAL; PROCESSOS DE MARKOV
- Keywords: Aprendizagem por reforço inverso (IRL); Artificial intelligence; Autonomous driving; Decision-making under uncertainty; Direção autônoma; Inverse reinforcement learning (IRL); Machine learning; Motion planning; Motion prediction; Partially observed Markov decision process (POMDP); Planejamento de movimento; Predição de movimento; Processo de decisão de Markov parcialmente observável (POMDP); Robotics; Tomada de decisão na presença de incertezas
- Agências de fomento:
- Language: Inglês
- Abstract: Um veículo que navega em um ambiente urbano deve obedecer às regras de trânsito, definindo corretamente sua velocidade para ficar abaixo do limite de velocidade da estrada e evitar colisões. Este é presumivelmente o cenário que os veículos autônomos enfrentarão: eles compartilharão as vias de tráfego com outros veículos (autônomos ou não), interagindo cooperativamente com eles. Em outras palavras, os veículos autônomos não devem apenas seguir as regras de trânsito, mas também devem se comportar de maneira semelhante a outros veículos. Porém, a especificação manual de tal comportamento é um trabalho demorado e sujeito a erros, visto que dirigir em vias urbanas é uma tarefa complexa, que envolve diversos fatores. Além disso, uma vez que a interação entre os veículos é inerente à condução, inferir o movimento dos veículos ao redor é essencial para proporcionar uma navegação mais fluida, evitando um comportamento excessivamente reativo. Nesse sentido, incertezas provenientes de sensores com algum grau de imprecisão, como também do comportamento desconhecido de outros veículos não podem ser negligenciadas de forma a garantir tomadas de decisão seguras e confiáveis. Nesta tese, propomos o uso do Processo de Decisão de Markov Parcialmente Observável (POMDP) para resolver o problema de informação incompleta inerente ao planejamento de movimento para veículos autônomos. Também propomos uma variante do Aprendizagem por Reforço Inverso (IRL) baseado no princípio da Entropia Máxima paraaprender o comportamento de motoristas humanos a partir de demonstrações. Três diferentes cenários urbanos são abordados ao longo deste trabalho: planejamento longitudinal em cruzamentos com semáforo considerando medições ruidosas de sensores; planejamento longitudinal e lateral em vias de múltiplas faixas na presença de outros veículos, em que a intenção dos mesmos de mudar de faixa é inferida a partir de uma sequência de observações; planejamento longitudinal e lateral durante manobras para adentrar vias movimentadas em um cenário altamente interativo, no qual o comportamento do veículo autônomo é aprendido a partir de dados reais contendo demonstrações humanas. Os resultados mostram que nossos métodos se comparam favoravelmente a abordagens que negligenciam a incerteza durante o planejamento, e também podem melhorar o desempenho do aprendizado por IRL, o que agrega segurança e confiabilidade na tomada de decisão.
- Imprenta:
- Publisher place: São Carlos
- Date published: 2023
- Data da defesa: 30.06.2023
- Este periódico é de acesso aberto
- Este artigo é de acesso aberto
- URL de acesso aberto
- Cor do Acesso Aberto: gold
- Licença: cc-by-nc-sa
-
ABNT
SILVA, Júnior Anderson Rodrigues da. Autonomous driving: learning to make decisions in uncertain environments. 2023. Tese (Doutorado) – Universidade de São Paulo, São Carlos, 2023. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-08012024-180517/. Acesso em: 08 out. 2024. -
APA
Silva, J. A. R. da. (2023). Autonomous driving: learning to make decisions in uncertain environments (Tese (Doutorado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-08012024-180517/ -
NLM
Silva JAR da. Autonomous driving: learning to make decisions in uncertain environments [Internet]. 2023 ;[citado 2024 out. 08 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-08012024-180517/ -
Vancouver
Silva JAR da. Autonomous driving: learning to make decisions in uncertain environments [Internet]. 2023 ;[citado 2024 out. 08 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-08012024-180517/ - Piecewise linear continuous-curvature path planning for autonomous vehicles
- Decision making for autonomous vehicles at signalized intersection under uncertain traffic signal phase and timing information
- Route scheduling system for multiple self-driving cars using K-means and bio-inspired algorithms
- Maximum entropy inverse reinforcement learning using Monte Carlo tree search for autonomous driving
- Continuous deep maximum entropy inverse reinforcement learning using online POMDP
- Sparse road network model for autonomous navigation using clothoids
- CNN-Planner: a neural path planner based on sensor fusion in the bird's eye view representation space for mapless autonomous driving
- Integrating modular pipelines with end-to-end learning: a hybrid approach for robust and reliable autonomous driving systems
Informações sobre o DOI: 10.11606/T.55.2023.tde-08012024-180517 (Fonte: oaDOI API)
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas