Filtros : "Reinforcement learning" Limpar

Filtros



Refine with date range


  • Source: European Journal of Operational Research. Unidades: EESC, ICMC

    Subjects: ENGENHARIA DE PRODUÇÃO, ESCALONAMENTO MULTIDIMENSIONAL, HEURÍSTICA

    PrivadoAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      ROLIM, Gustavo Alencar e TOMAZELLA, Caio Paziani e NAGANO, Marcelo Seido. On the integration of reinforcement learning and simulated annealing for the parallel batch scheduling problem with setups. European Journal of Operational Research, v. 326, n. 2, p. 220-233, 2025Tradução . . Disponível em: https://dx.doi.org/10.1016/j.ejor.2025.04.042. Acesso em: 23 jan. 2026.
    • APA

      Rolim, G. A., Tomazella, C. P., & Nagano, M. S. (2025). On the integration of reinforcement learning and simulated annealing for the parallel batch scheduling problem with setups. European Journal of Operational Research, 326( 2), 220-233. doi:10.1016/j.ejor.2025.04.042
    • NLM

      Rolim GA, Tomazella CP, Nagano MS. On the integration of reinforcement learning and simulated annealing for the parallel batch scheduling problem with setups [Internet]. European Journal of Operational Research. 2025 ; 326( 2): 220-233.[citado 2026 jan. 23 ] Available from: https://dx.doi.org/10.1016/j.ejor.2025.04.042
    • Vancouver

      Rolim GA, Tomazella CP, Nagano MS. On the integration of reinforcement learning and simulated annealing for the parallel batch scheduling problem with setups [Internet]. European Journal of Operational Research. 2025 ; 326( 2): 220-233.[citado 2026 jan. 23 ] Available from: https://dx.doi.org/10.1016/j.ejor.2025.04.042
  • Unidade: IME

    Subjects: APRENDIZADO COMPUTACIONAL, PROBABILIDADE, PROCESSOS ESTOCÁSTICOS

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      PEREIRA, Gustavo de Mari. Reinforcement learning for stochastic shortest path with dead-ends. 2025. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2025. Disponível em: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-31082025-142940/. Acesso em: 23 jan. 2026.
    • APA

      Pereira, G. de M. (2025). Reinforcement learning for stochastic shortest path with dead-ends (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/45/45134/tde-31082025-142940/
    • NLM

      Pereira G de M. Reinforcement learning for stochastic shortest path with dead-ends [Internet]. 2025 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-31082025-142940/
    • Vancouver

      Pereira G de M. Reinforcement learning for stochastic shortest path with dead-ends [Internet]. 2025 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-31082025-142940/
  • Source: Lecture Notes in Computer Science. Conference titles: Brazilian Conference - BRACIS 2024. Unidades: EACH, IME

    Subjects: PROCESSOS ESTOCÁSTICOS, PROCESSOS DE MARKOV, INTELIGÊNCIA ARTIFICIAL, ALGORITMOS

    PrivadoAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      POLAR, Christian Jorge Delgado e DELGADO, Karina Valdivia e SILVA, Valdinei Freire da. Reinforcement learning with utility-based semantic for goals. Lecture Notes in Computer Science. Cham: Springer Nature. Disponível em: https://doi.org/10.1007/978-3-031-79032-4_25. Acesso em: 23 jan. 2026. , 2025
    • APA

      Polar, C. J. D., Delgado, K. V., & Silva, V. F. da. (2025). Reinforcement learning with utility-based semantic for goals. Lecture Notes in Computer Science. Cham: Springer Nature. doi:10.1007/978-3-031-79032-4_25
    • NLM

      Polar CJD, Delgado KV, Silva VF da. Reinforcement learning with utility-based semantic for goals [Internet]. Lecture Notes in Computer Science. 2025 ; 15413 354-369.[citado 2026 jan. 23 ] Available from: https://doi.org/10.1007/978-3-031-79032-4_25
    • Vancouver

      Polar CJD, Delgado KV, Silva VF da. Reinforcement learning with utility-based semantic for goals [Internet]. Lecture Notes in Computer Science. 2025 ; 15413 354-369.[citado 2026 jan. 23 ] Available from: https://doi.org/10.1007/978-3-031-79032-4_25
  • Unidade: ICMC

    Subjects: AERONAVES NÃO TRIPULADAS, MÉTODO DE MONTE CARLO, MÉTODOS PROBABILÍSTICOS, COMPUTAÇÃO EVOLUTIVA

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SOUZA, Gustavo de Moura. Monte Carlo continuous action space solver for chance constrained Markov decision processes. 2024. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2024. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23042025-131038/. Acesso em: 23 jan. 2026.
    • APA

      Souza, G. de M. (2024). Monte Carlo continuous action space solver for chance constrained Markov decision processes (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23042025-131038/
    • NLM

      Souza G de M. Monte Carlo continuous action space solver for chance constrained Markov decision processes [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23042025-131038/
    • Vancouver

      Souza G de M. Monte Carlo continuous action space solver for chance constrained Markov decision processes [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23042025-131038/
  • Unidade: FEA

    Subjects: ECONOMIA, FINANÇAS, APRENDIZADO COMPUTACIONAL, POLÍTICA DE PREÇO

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      MORAES, Kauê Lopes de. The Lucas Tree Model in the age of AI: an agent-based reinforcement learning approach. 2024. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2024. Disponível em: https://www.teses.usp.br/teses/disponiveis/12/12138/tde-14052024-164218/. Acesso em: 23 jan. 2026.
    • APA

      Moraes, K. L. de. (2024). The Lucas Tree Model in the age of AI: an agent-based reinforcement learning approach (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/12/12138/tde-14052024-164218/
    • NLM

      Moraes KL de. The Lucas Tree Model in the age of AI: an agent-based reinforcement learning approach [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/12/12138/tde-14052024-164218/
    • Vancouver

      Moraes KL de. The Lucas Tree Model in the age of AI: an agent-based reinforcement learning approach [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/12/12138/tde-14052024-164218/
  • Unidade: ICMC

    Subjects: MÉTODO DOS ELEMENTOS FINITOS, EQUAÇÕES DE NAVIER-STOKES, APRENDIZADO COMPUTACIONAL, SIMULAÇÃO DE SISTEMAS, PROCESSOS ESTOCÁSTICOS, PROCESSOS DE RENOVAÇÃO MARKOVIANO

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SOUZA, Luciano Dellier Antunes de. Estratégias de aprendizado para micro nadadores articulados virtuais. 2024. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2024. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-20052024-142846/. Acesso em: 23 jan. 2026.
    • APA

      Souza, L. D. A. de. (2024). Estratégias de aprendizado para micro nadadores articulados virtuais (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-20052024-142846/
    • NLM

      Souza LDA de. Estratégias de aprendizado para micro nadadores articulados virtuais [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-20052024-142846/
    • Vancouver

      Souza LDA de. Estratégias de aprendizado para micro nadadores articulados virtuais [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-20052024-142846/
  • Unidade: ICMC

    Subjects: MÉTODO DOS ELEMENTOS FINITOS, GEOMETRIA E MODELAGEM COMPUTACIONAL

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SILVA, Paula Jaíne Alves da. Locomoção de Micronadadores Sintéticos Simulados pelo Método dos Elementos Finitos. 2024. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2024. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-16072024-145728/. Acesso em: 23 jan. 2026.
    • APA

      Silva, P. J. A. da. (2024). Locomoção de Micronadadores Sintéticos Simulados pelo Método dos Elementos Finitos (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-16072024-145728/
    • NLM

      Silva PJA da. Locomoção de Micronadadores Sintéticos Simulados pelo Método dos Elementos Finitos [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-16072024-145728/
    • Vancouver

      Silva PJA da. Locomoção de Micronadadores Sintéticos Simulados pelo Método dos Elementos Finitos [Internet]. 2024 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-16072024-145728/
  • Unidade: IME

    Subjects: APRENDIZADO COMPUTACIONAL, PROCESSOS ESTOCÁSTICOS

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      LOVATTO, Ângelo Gregório. Model-based policy gradients: an empirical study on linear quadratic environments. 2022. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2022. Disponível em: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-28062022-123656/. Acesso em: 23 jan. 2026.
    • APA

      Lovatto, Â. G. (2022). Model-based policy gradients: an empirical study on linear quadratic environments (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/45/45134/tde-28062022-123656/
    • NLM

      Lovatto ÂG. Model-based policy gradients: an empirical study on linear quadratic environments [Internet]. 2022 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-28062022-123656/
    • Vancouver

      Lovatto ÂG. Model-based policy gradients: an empirical study on linear quadratic environments [Internet]. 2022 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-28062022-123656/
  • Unidade: ICMC

    Subjects: APRENDIZADO COMPUTACIONAL, COMPUTAÇÃO MÓVEL, APLICATIVOS MÓVEIS, SOFTWARES

    Acesso à fonteAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      RIBEIRO, Eliane Figueiredo Collins. DeepRLGUIMAT: Deep Reinforcement Learning-based GUI Mobile Application Testing Approach. 2022. Tese (Doutorado) – Universidade de São Paulo, São Carlos, 2022. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-03062022-162453/. Acesso em: 23 jan. 2026.
    • APA

      Ribeiro, E. F. C. (2022). DeepRLGUIMAT: Deep Reinforcement Learning-based GUI Mobile Application Testing Approach (Tese (Doutorado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-03062022-162453/
    • NLM

      Ribeiro EFC. DeepRLGUIMAT: Deep Reinforcement Learning-based GUI Mobile Application Testing Approach [Internet]. 2022 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-03062022-162453/
    • Vancouver

      Ribeiro EFC. DeepRLGUIMAT: Deep Reinforcement Learning-based GUI Mobile Application Testing Approach [Internet]. 2022 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-03062022-162453/
  • Source: Expert Systems With Applications. Unidade: ICMC

    Subjects: HEURÍSTICA, ARRANJO FÍSICO, DEFEITO, INDÚSTRIA TÊXTIL

    PrivadoAcesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BARTMEYER, Petra Maria et al. An expert system to react to defective areas in nesting problems. Expert Systems With Applications, v. 209, p. 1-11, 2022Tradução . . Disponível em: https://doi.org/10.1016/j.eswa.2022.118207. Acesso em: 23 jan. 2026.
    • APA

      Bartmeyer, P. M., Oliveira, L. T. de, Leão, A. A. S., & Toledo, F. M. B. de. (2022). An expert system to react to defective areas in nesting problems. Expert Systems With Applications, 209, 1-11. doi:10.1016/j.eswa.2022.118207
    • NLM

      Bartmeyer PM, Oliveira LT de, Leão AAS, Toledo FMB de. An expert system to react to defective areas in nesting problems [Internet]. Expert Systems With Applications. 2022 ; 209 1-11.[citado 2026 jan. 23 ] Available from: https://doi.org/10.1016/j.eswa.2022.118207
    • Vancouver

      Bartmeyer PM, Oliveira LT de, Leão AAS, Toledo FMB de. An expert system to react to defective areas in nesting problems [Internet]. Expert Systems With Applications. 2022 ; 209 1-11.[citado 2026 jan. 23 ] Available from: https://doi.org/10.1016/j.eswa.2022.118207
  • Source: Livro de Resumos. Conference titles: Semana Integrada do Instituto de Física de São Carlos - SIFSC. Unidade: IFSC

    Subjects: APRENDIZAGEM SOCIAL, COMPORTAMENTO SOCIAL (ESTUDO), FÍSICA TEÓRICA, INTELIGÊNCIA COLETIVA, CONSCIÊNCIA (PERCEPÇÃO)

    Versão PublicadaHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      ARRUDA, João Francisco Zani de. Physarum polycephalum: um modelo biológico de inteligência coletiva. 2022, Anais.. São Carlos: Instituto de Física de São Carlos - IFSC, 2022. Disponível em: https://repositorio.usp.br/directbitstream/78ab3a27-9611-453b-8bac-cbaf01ce5e8b/PROD033870_3115412.pdf. Acesso em: 23 jan. 2026.
    • APA

      Arruda, J. F. Z. de. (2022). Physarum polycephalum: um modelo biológico de inteligência coletiva. In Livro de Resumos. São Carlos: Instituto de Física de São Carlos - IFSC. Recuperado de https://repositorio.usp.br/directbitstream/78ab3a27-9611-453b-8bac-cbaf01ce5e8b/PROD033870_3115412.pdf
    • NLM

      Arruda JFZ de. Physarum polycephalum: um modelo biológico de inteligência coletiva [Internet]. Livro de Resumos. 2022 ;[citado 2026 jan. 23 ] Available from: https://repositorio.usp.br/directbitstream/78ab3a27-9611-453b-8bac-cbaf01ce5e8b/PROD033870_3115412.pdf
    • Vancouver

      Arruda JFZ de. Physarum polycephalum: um modelo biológico de inteligência coletiva [Internet]. Livro de Resumos. 2022 ;[citado 2026 jan. 23 ] Available from: https://repositorio.usp.br/directbitstream/78ab3a27-9611-453b-8bac-cbaf01ce5e8b/PROD033870_3115412.pdf
  • Source: Proceedings. Conference titles: Brazilian Conference on Intelligent Systems - BRACIS. Unidade: IME

    Assunto: CONTROLE ÓTIMO

    Acesso à fonteDOIHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      LOVATTO, Ângelo Gregório e BARROS, Leliane Nunes de e MAUÁ, Denis Deratani. Exploration versus exploitation in model-based reinforcement learning: an empirical study. 2022, Anais.. Cham: Springer, 2022. Disponível em: https://doi.org/10.1007/978-3-031-21689-3_3. Acesso em: 23 jan. 2026.
    • APA

      Lovatto, Â. G., Barros, L. N. de, & Mauá, D. D. (2022). Exploration versus exploitation in model-based reinforcement learning: an empirical study. In Proceedings. Cham: Springer. doi:10.1007/978-3-031-21689-3_3
    • NLM

      Lovatto ÂG, Barros LN de, Mauá DD. Exploration versus exploitation in model-based reinforcement learning: an empirical study [Internet]. Proceedings. 2022 ;[citado 2026 jan. 23 ] Available from: https://doi.org/10.1007/978-3-031-21689-3_3
    • Vancouver

      Lovatto ÂG, Barros LN de, Mauá DD. Exploration versus exploitation in model-based reinforcement learning: an empirical study [Internet]. Proceedings. 2022 ;[citado 2026 jan. 23 ] Available from: https://doi.org/10.1007/978-3-031-21689-3_3
  • Unidade: ICMC

    Subjects: REDES NEURAIS, RECUPERAÇÃO DA INFORMAÇÃO, MINERAÇÃO DE DADOS, INTERAÇÃO HOMEM-MÁQUINA

    Acesso à fonteHow to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      TICONA, Gustavo Junior Escobedo. Exploiting Inter-session Dynamics for Long Intra-Session Sequences of Interactions with Deep Reinforcement Learning for Session-Aware Recommendation. 2021. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2021. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23062021-105306/. Acesso em: 23 jan. 2026.
    • APA

      Ticona, G. J. E. (2021). Exploiting Inter-session Dynamics for Long Intra-Session Sequences of Interactions with Deep Reinforcement Learning for Session-Aware Recommendation (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23062021-105306/
    • NLM

      Ticona GJE. Exploiting Inter-session Dynamics for Long Intra-Session Sequences of Interactions with Deep Reinforcement Learning for Session-Aware Recommendation [Internet]. 2021 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23062021-105306/
    • Vancouver

      Ticona GJE. Exploiting Inter-session Dynamics for Long Intra-Session Sequences of Interactions with Deep Reinforcement Learning for Session-Aware Recommendation [Internet]. 2021 ;[citado 2026 jan. 23 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-23062021-105306/

Digital Library of Intellectual Production of Universidade de São Paulo     2012 - 2026