A unified framework for average reward criterion and risk (2025)
- Authors:
- USP affiliated authors: DELGADO, KARINA VALDIVIA - EACH ; SILVA, VALDINEI FREIRE DA - EACH ; REIS, WILLY ARTHUR SILVA - IME
- Unidades: EACH; IME
- DOI: 10.1007/978-3-031-79029-4_7
- Subjects: PROCESSOS DE MARKOV; INTELIGÊNCIA ARTIFICIAL
- Keywords: Markov decision process; Average reward; Risk-sensitive; Decisões sensíveis ao risco
- Agências de fomento:
- Language: Inglês
- Imprenta:
- Publisher: Springer Nature
- Publisher place: Cham
- Date published: 2025
- Source:
- Título: Lecture Notes in Computer Science
- ISSN: 0302-9743
- Volume/Número/Paginação/Ano: v. 15412, p. 96-110, 2025
- Conference titles: Brazilian Conference on Intelligent Systems - BRACIS
- Este periódico é de acesso aberto
- Este artigo NÃO é de acesso aberto
-
ABNT
REIS, Willy Arthur Silva e DELGADO, Karina Valdivia e SILVA, Valdinei Freire da. A unified framework for average reward criterion and risk. Lecture Notes in Computer Science. Cham: Springer Nature. Disponível em: https://doi.org/10.1007/978-3-031-79029-4_7. Acesso em: 08 fev. 2026. , 2025 -
APA
Reis, W. A. S., Delgado, K. V., & Silva, V. F. da. (2025). A unified framework for average reward criterion and risk. Lecture Notes in Computer Science. Cham: Springer Nature. doi:10.1007/978-3-031-79029-4_7 -
NLM
Reis WAS, Delgado KV, Silva VF da. A unified framework for average reward criterion and risk [Internet]. Lecture Notes in Computer Science. 2025 ; 15412 96-110.[citado 2026 fev. 08 ] Available from: https://doi.org/10.1007/978-3-031-79029-4_7 -
Vancouver
Reis WAS, Delgado KV, Silva VF da. A unified framework for average reward criterion and risk [Internet]. Lecture Notes in Computer Science. 2025 ; 15412 96-110.[citado 2026 fev. 08 ] Available from: https://doi.org/10.1007/978-3-031-79029-4_7 - ALICAT: a customized approach to item selection process in computerized adaptive testing
- Robust topological policy iteration for infinite horizon bounded Markov decision processes
- GUBS criterion: arbitrary trade-offs between cost and probability-to-goal in stochastic planning based on expected utility theory
- Algoritmo Exato de Avaliação de uma Política Estacionária para CVaR MDP
- Reinforcement learning with utility-based semantic for goals
- Algoritmos assíncronos de iteração de política para Processos de Decisão Markovianos com Probabilidades Intervalares
- Risk-sensitive piecewise-linear policy iteration for stochastic shortest path Markov decision processes
- Políticas sensíveis ao risco para o controle da propagação de doenças infecciosas
- Políticas aproximadas e parciais sensíveis a risco para o controle da propagação de doenças infecciosas
- Processos Markovianos de Decisão com heurísticas, junção de abordagens backward e forward para transferência de conhecimento baseados em políticas
Informações sobre o DOI: 10.1007/978-3-031-79029-4_7 (Fonte: oaDOI API)
Download do texto completo
| Tipo | Nome | Link | |
|---|---|---|---|
| 3251935.pdf |
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
