Filtros : "Markov Decision Process" Limpar

Filtros



Refine with date range


  • Unidade: IME

    Subjects: PROCESSOS DE MARKOV, PROCESSOS ESTOCÁSTICOS

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      PEREIRA NETO, Eduardo Lopes. Risk Sensitivity with exponential functions in reinforcement learning: an empirical analysis. 2023. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2023. Disponível em: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-06122023-173644/. Acesso em: 26 jan. 2026.
    • APA

      Pereira Neto, E. L. (2023). Risk Sensitivity with exponential functions in reinforcement learning: an empirical analysis (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/45/45134/tde-06122023-173644/
    • NLM

      Pereira Neto EL. Risk Sensitivity with exponential functions in reinforcement learning: an empirical analysis [Internet]. 2023 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-06122023-173644/
    • Vancouver

      Pereira Neto EL. Risk Sensitivity with exponential functions in reinforcement learning: an empirical analysis [Internet]. 2023 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-06122023-173644/
  • Unidade: IME

    Subjects: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL, REDES NEURAIS, MODELOS PARA PROCESSOS ESTOCÁSTICOS

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BUENO, Thiago Pereira. Planning in stochastic computation graphs: solving stochastic nonlinear problems with backpropagation. 2021. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2021. Disponível em: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-29102021-133418/. Acesso em: 26 jan. 2026.
    • APA

      Bueno, T. P. (2021). Planning in stochastic computation graphs: solving stochastic nonlinear problems with backpropagation (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/45/45134/tde-29102021-133418/
    • NLM

      Bueno TP. Planning in stochastic computation graphs: solving stochastic nonlinear problems with backpropagation [Internet]. 2021 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-29102021-133418/
    • Vancouver

      Bueno TP. Planning in stochastic computation graphs: solving stochastic nonlinear problems with backpropagation [Internet]. 2021 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-29102021-133418/
  • Source: Proceedings. Conference titles: Annual IEEE/IFIP International Conference on Dependable Systems and Networks Workshops - DSN-W. Unidade: ICMC

    Subjects: PROCESSOS DE MARKOV, SISTEMAS DISTRIBUÍDOS, AERONAVES NÃO TRIPULADAS

    PrivadoAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      HAMADOUCHE, Mohand e DEZAN, Catherine e BRANCO, Kalinka Regina Lucas Jaquie Castelo. Reward tuning for self-adaptive policy in MDP based distributed decision-making to ensure a safe mission planning. 2020, Anais.. Los Alamitos: IEEE, 2020. Disponível em: https://doi.org/10.1109/DSN-W50199.2020.00025. Acesso em: 26 jan. 2026.
    • APA

      Hamadouche, M., Dezan, C., & Branco, K. R. L. J. C. (2020). Reward tuning for self-adaptive policy in MDP based distributed decision-making to ensure a safe mission planning. In Proceedings. Los Alamitos: IEEE. doi:10.1109/DSN-W50199.2020.00025
    • NLM

      Hamadouche M, Dezan C, Branco KRLJC. Reward tuning for self-adaptive policy in MDP based distributed decision-making to ensure a safe mission planning [Internet]. Proceedings. 2020 ;[citado 2026 jan. 26 ] Available from: https://doi.org/10.1109/DSN-W50199.2020.00025
    • Vancouver

      Hamadouche M, Dezan C, Branco KRLJC. Reward tuning for self-adaptive policy in MDP based distributed decision-making to ensure a safe mission planning [Internet]. Proceedings. 2020 ;[citado 2026 jan. 26 ] Available from: https://doi.org/10.1109/DSN-W50199.2020.00025
  • Unidade: EACH

    Subjects: INTELIGÊNCIA ARTIFICIAL, PROCESSOS DE MARKOV, TEORIA DA DECISÃO, FINANÇAS, HEURÍSTICA

    Acesso à fonteHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      PAIS, Dênis Benevolo. Abordagens eficientes e aproximadas com políticas estacionárias para CVaR MDP. 2019. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2019. Disponível em: https://www.teses.usp.br/teses/disponiveis/100/100131/tde-30012020-115648/. Acesso em: 26 jan. 2026.
    • APA

      Pais, D. B. (2019). Abordagens eficientes e aproximadas com políticas estacionárias para CVaR MDP (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/100/100131/tde-30012020-115648/
    • NLM

      Pais DB. Abordagens eficientes e aproximadas com políticas estacionárias para CVaR MDP [Internet]. 2019 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/100/100131/tde-30012020-115648/
    • Vancouver

      Pais DB. Abordagens eficientes e aproximadas com políticas estacionárias para CVaR MDP [Internet]. 2019 ;[citado 2026 jan. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/100/100131/tde-30012020-115648/

Digital Library of Intellectual Production of Universidade de São Paulo     2012 - 2026