Filtros : "INTELIGÊNCIA ARTIFICIAL" "Reali Costa, Anna Helena" Removidos: "MALACOLOGIA" "PROCAM" "KALIL FILHO, ROBERTO" "Inglaterra" "1969" "Gimenes, M" "Matta, V L R" "CENA-DVECO-64" "EACH-LCN-86" "FFLCH-SVPOMAT-08" "Japão" "EE-ENP" Limpar

Filtros



Limitar por data


  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      NISHIDA, Cyntia Eico Hayama. Controlling biological systems through batch reinforcement learning. 2020. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2020. Disponível em: https://www.teses.usp.br/teses/disponiveis/3/3141/tde-01042021-143348/. Acesso em: 15 jul. 2024.
    • APA

      Nishida, C. E. H. (2020). Controlling biological systems through batch reinforcement learning. (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/3/3141/tde-01042021-143348/
    • NLM

      Nishida CEH. Controlling biological systems through batch reinforcement learning. [Internet]. 2020 ;[citado 2024 jul. 15 ] Available from: https://www.teses.usp.br/teses/disponiveis/3/3141/tde-01042021-143348/
    • Vancouver

      Nishida CEH. Controlling biological systems through batch reinforcement learning. [Internet]. 2020 ;[citado 2024 jul. 15 ] Available from: https://www.teses.usp.br/teses/disponiveis/3/3141/tde-01042021-143348/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL, ALGORITMOS E ESTRUTURAS DE DADOS, PERSONALIDADE

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BERTANI, Ricardo Mitollo. Combinando novidade e popularidade em recomendações personalizadas através do aprendizado do perfil do usuário. 2019. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2019. Disponível em: https://teses.usp.br/teses/disponiveis/3/3141/tde-28022020-111422/. Acesso em: 15 jul. 2024.
    • APA

      Bertani, R. M. (2019). Combinando novidade e popularidade em recomendações personalizadas através do aprendizado do perfil do usuário. (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://teses.usp.br/teses/disponiveis/3/3141/tde-28022020-111422/
    • NLM

      Bertani RM. Combinando novidade e popularidade em recomendações personalizadas através do aprendizado do perfil do usuário. [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-28022020-111422/
    • Vancouver

      Bertani RM. Combinando novidade e popularidade em recomendações personalizadas através do aprendizado do perfil do usuário. [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-28022020-111422/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      GLATT, Ruben. Knowledge reuse for deep reinforcement learning. 2019. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2019. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18092019-074805/. Acesso em: 15 jul. 2024.
    • APA

      Glatt, R. (2019). Knowledge reuse for deep reinforcement learning (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18092019-074805/
    • NLM

      Glatt R. Knowledge reuse for deep reinforcement learning [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18092019-074805/
    • Vancouver

      Glatt R. Knowledge reuse for deep reinforcement learning [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18092019-074805/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, SISTEMAS MULTIAGENTES

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SILVA, Felipe Leno da. Methods and algorithms for knowledge reuse in multiagent reinforcement learning. 2019. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2019. Disponível em: https://teses.usp.br/teses/disponiveis/3/3141/tde-21112019-113201/. Acesso em: 15 jul. 2024.
    • APA

      Silva, F. L. da. (2019). Methods and algorithms for knowledge reuse in multiagent reinforcement learning (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de https://teses.usp.br/teses/disponiveis/3/3141/tde-21112019-113201/
    • NLM

      Silva FL da. Methods and algorithms for knowledge reuse in multiagent reinforcement learning [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-21112019-113201/
    • Vancouver

      Silva FL da. Methods and algorithms for knowledge reuse in multiagent reinforcement learning [Internet]. 2019 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-21112019-113201/
  • Fonte: Computers & Electrical Engineering. Unidade: EP

    Assunto: INTELIGÊNCIA ARTIFICIAL

    Acesso à fonteDOIComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BAJWA, Imran Sarwar e REALI COSTA, Anna Helena e BENTAHAR, Jamal. Introduction to the Special Section on Artificial Intelligence for Smart Systems. Computers & Electrical Engineering, v. 79, p. 1-3, 2019Tradução . . Disponível em: https://doi.org/10.1016/j.compeleceng.2019.106469. Acesso em: 15 jul. 2024.
    • APA

      Bajwa, I. S., Reali Costa, A. H., & Bentahar, J. (2019). Introduction to the Special Section on Artificial Intelligence for Smart Systems. Computers & Electrical Engineering, 79, 1-3. doi:10.1016/j.compeleceng.2019.106469
    • NLM

      Bajwa IS, Reali Costa AH, Bentahar J. Introduction to the Special Section on Artificial Intelligence for Smart Systems [Internet]. Computers & Electrical Engineering. 2019 ; 79 1-3.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1016/j.compeleceng.2019.106469
    • Vancouver

      Bajwa IS, Reali Costa AH, Bentahar J. Introduction to the Special Section on Artificial Intelligence for Smart Systems [Internet]. Computers & Electrical Engineering. 2019 ; 79 1-3.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1016/j.compeleceng.2019.106469
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BONINI, Rodrigo Cesar. Descoberta e reuso de polí­ticas parciais probabilísticas no aprendizado por reforço. 2018. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2018. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18072019-143338/. Acesso em: 15 jul. 2024.
    • APA

      Bonini, R. C. (2018). Descoberta e reuso de polí­ticas parciais probabilísticas no aprendizado por reforço (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18072019-143338/
    • NLM

      Bonini RC. Descoberta e reuso de polí­ticas parciais probabilísticas no aprendizado por reforço [Internet]. 2018 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18072019-143338/
    • Vancouver

      Bonini RC. Descoberta e reuso de polí­ticas parciais probabilísticas no aprendizado por reforço [Internet]. 2018 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-18072019-143338/
  • Fonte: IEEE Transactions on Cybernetics. Unidades: EACH, EP

    Assuntos: DINÂMICA ESTOCÁSTICA, ANÁLISE ESTOCÁSTICA, APRENDIZADO COMPUTACIONAL, INTELIGÊNCIA ARTIFICIAL

    Acesso à fonteDOIComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      KOGA, Marcelo Li e SILVA, Valdinei Freire da e REALI COSTA, Anna Helena. Stochastic abstract policies: generalizing knowledge to improve reinforcement learning. IEEE Transactions on Cybernetics, v. 45, n. ja 2015, p. 77-88, 2015Tradução . . Disponível em: https://doi.org/10.1109/TCYB.2014.2319733. Acesso em: 15 jul. 2024.
    • APA

      Koga, M. L., Silva, V. F. da, & Reali Costa, A. H. (2015). Stochastic abstract policies: generalizing knowledge to improve reinforcement learning. IEEE Transactions on Cybernetics, 45( ja 2015), 77-88. doi:10.1109/TCYB.2014.2319733
    • NLM

      Koga ML, Silva VF da, Reali Costa AH. Stochastic abstract policies: generalizing knowledge to improve reinforcement learning [Internet]. IEEE Transactions on Cybernetics. 2015 ; 45( ja 2015): 77-88.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1109/TCYB.2014.2319733
    • Vancouver

      Koga ML, Silva VF da, Reali Costa AH. Stochastic abstract policies: generalizing knowledge to improve reinforcement learning [Internet]. IEEE Transactions on Cybernetics. 2015 ; 45( ja 2015): 77-88.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1109/TCYB.2014.2319733
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, ENERGIA (GERENCIAMENTO;SISTEMAS)

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SOUZA, Heider Berlink de. Intelligent decision-making for smart home energy management. 2015. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2015. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3139/tde-05022016-070646/. Acesso em: 15 jul. 2024.
    • APA

      Souza, H. B. de. (2015). Intelligent decision-making for smart home energy management (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3139/tde-05022016-070646/
    • NLM

      Souza HB de. Intelligent decision-making for smart home energy management [Internet]. 2015 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3139/tde-05022016-070646/
    • Vancouver

      Souza HB de. Intelligent decision-making for smart home energy management [Internet]. 2015 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3139/tde-05022016-070646/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, VISÃO COMPUTACIONAL, RECONHECIMENTO DE PADRÕES

    Acesso à fonteAcesso à fonteDOIComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SILVA, Felipe Leno da. Automated bee species identification through wing images. 2015. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2015. Disponível em: https://teses.usp.br/teses/disponiveis/3/3141/tde-19102015-145442/. Acesso em: 15 jul. 2024.
    • APA

      Silva, F. L. da. (2015). Automated bee species identification through wing images (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://teses.usp.br/teses/disponiveis/3/3141/tde-19102015-145442/
    • NLM

      Silva FL da. Automated bee species identification through wing images [Internet]. 2015 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-19102015-145442/
    • Vancouver

      Silva FL da. Automated bee species identification through wing images [Internet]. 2015 ;[citado 2024 jul. 15 ] Available from: https://teses.usp.br/teses/disponiveis/3/3141/tde-19102015-145442/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, PROCESSOS DE MARKOV

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      TRUZZI, Flávio Sales. Modelagem e soluções para redes de anúncios. 2014. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2014. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-24042015-113950/. Acesso em: 15 jul. 2024.
    • APA

      Truzzi, F. S. (2014). Modelagem e soluções para redes de anúncios (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-24042015-113950/
    • NLM

      Truzzi FS. Modelagem e soluções para redes de anúncios [Internet]. 2014 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-24042015-113950/
    • Vancouver

      Truzzi FS. Modelagem e soluções para redes de anúncios [Internet]. 2014 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-24042015-113950/
  • Nome do evento: RoboCup International Symposium. Unidades: EP, EACH

    Assuntos: INTELIGÊNCIA ARTIFICIAL, ROBÓTICA, APRENDIZADO COMPUTACIONAL

    PrivadoComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SILVA, Valdinei Freire da et al. Reusing risk-aware stochastic abstract policies in robotic navigation learning. 2014, Anais.. Berlin: Springer, 2014. Disponível em: https://repositorio.usp.br/directbitstream/5d87c375-54fa-41a7-aedb-8375552526dc/Cozman-2014-Reusing%20risk-aware%20stochastic%20abstract%20policies%20in%20robotic%20navigation%20learning.pdf. Acesso em: 15 jul. 2024.
    • APA

      Silva, V. F. da, Koga, M. L., Cozman, F. G., & Reali Costa, A. H. (2014). Reusing risk-aware stochastic abstract policies in robotic navigation learning. In . Berlin: Springer. Recuperado de https://repositorio.usp.br/directbitstream/5d87c375-54fa-41a7-aedb-8375552526dc/Cozman-2014-Reusing%20risk-aware%20stochastic%20abstract%20policies%20in%20robotic%20navigation%20learning.pdf
    • NLM

      Silva VF da, Koga ML, Cozman FG, Reali Costa AH. Reusing risk-aware stochastic abstract policies in robotic navigation learning [Internet]. 2014 ;[citado 2024 jul. 15 ] Available from: https://repositorio.usp.br/directbitstream/5d87c375-54fa-41a7-aedb-8375552526dc/Cozman-2014-Reusing%20risk-aware%20stochastic%20abstract%20policies%20in%20robotic%20navigation%20learning.pdf
    • Vancouver

      Silva VF da, Koga ML, Cozman FG, Reali Costa AH. Reusing risk-aware stochastic abstract policies in robotic navigation learning [Internet]. 2014 ;[citado 2024 jul. 15 ] Available from: https://repositorio.usp.br/directbitstream/5d87c375-54fa-41a7-aedb-8375552526dc/Cozman-2014-Reusing%20risk-aware%20stochastic%20abstract%20policies%20in%20robotic%20navigation%20learning.pdf
  • Fonte: IEEE Transactions on Cybernetics. Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, ALGORITMOS, SISTEMAS MULTIAGENTES

    Acesso à fonteDOIComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BIANCHI, Reinaldo Augusto da Costa et al. Heuristically-Accelerated Multiagent Reinforcement Learning. IEEE Transactions on Cybernetics, v. 44, n. 2, p. 252-265, 2014Tradução . . Disponível em: https://doi.org/10.1109/tcyb.2013.2253094. Acesso em: 15 jul. 2024.
    • APA

      Bianchi, R. A. da C., Martins, M. F., Ribeiro, C. H. C., & Reali Costa, A. H. (2014). Heuristically-Accelerated Multiagent Reinforcement Learning. IEEE Transactions on Cybernetics, 44( 2), 252-265. doi:10.1109/tcyb.2013.2253094
    • NLM

      Bianchi RA da C, Martins MF, Ribeiro CHC, Reali Costa AH. Heuristically-Accelerated Multiagent Reinforcement Learning [Internet]. IEEE Transactions on Cybernetics. 2014 ; 44( 2): 252-265.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1109/tcyb.2013.2253094
    • Vancouver

      Bianchi RA da C, Martins MF, Ribeiro CHC, Reali Costa AH. Heuristically-Accelerated Multiagent Reinforcement Learning [Internet]. IEEE Transactions on Cybernetics. 2014 ; 44( 2): 252-265.[citado 2024 jul. 15 ] Available from: https://doi.org/10.1109/tcyb.2013.2253094
  • Nome do evento: International Conference on Autonomous Agents and Multiagent Systems. Unidades: EP, EACH

    Assuntos: INTELIGÊNCIA ARTIFICIAL, ROBÓTICA, APRENDIZADO COMPUTACIONAL

    PrivadoComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      KOGA, Marcelo Li et al. Speeding-up reinforcement learning through abstraction and transfer learning. 2013, Anais.. Red Hook, NY: IFAAMAS, 2013. Disponível em: https://repositorio.usp.br/directbitstream/7350f883-bab6-4471-ba96-5144fdee1a5b/Cozman-2013-Speeding%20up%20reinforcement%20learning%20ok.pdf. Acesso em: 15 jul. 2024.
    • APA

      Koga, M. L., Silva, V. F. da, Cozman, F. G., & Reali Costa, A. H. (2013). Speeding-up reinforcement learning through abstraction and transfer learning. In . Red Hook, NY: IFAAMAS. Recuperado de https://repositorio.usp.br/directbitstream/7350f883-bab6-4471-ba96-5144fdee1a5b/Cozman-2013-Speeding%20up%20reinforcement%20learning%20ok.pdf
    • NLM

      Koga ML, Silva VF da, Cozman FG, Reali Costa AH. Speeding-up reinforcement learning through abstraction and transfer learning [Internet]. 2013 ;[citado 2024 jul. 15 ] Available from: https://repositorio.usp.br/directbitstream/7350f883-bab6-4471-ba96-5144fdee1a5b/Cozman-2013-Speeding%20up%20reinforcement%20learning%20ok.pdf
    • Vancouver

      Koga ML, Silva VF da, Cozman FG, Reali Costa AH. Speeding-up reinforcement learning through abstraction and transfer learning [Internet]. 2013 ;[citado 2024 jul. 15 ] Available from: https://repositorio.usp.br/directbitstream/7350f883-bab6-4471-ba96-5144fdee1a5b/Cozman-2013-Speeding%20up%20reinforcement%20learning%20ok.pdf
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL, PROCESSOS DE MARKOV, REPRESENTAÇÃO DE CONHECIMENTO

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      KOGA, Marcelo Li. Relational transfer across reinforcement learning tasks via abstract policies. 2013. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2013. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-04112014-103827/. Acesso em: 15 jul. 2024.
    • APA

      Koga, M. L. (2013). Relational transfer across reinforcement learning tasks via abstract policies (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-04112014-103827/
    • NLM

      Koga ML. Relational transfer across reinforcement learning tasks via abstract policies [Internet]. 2013 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-04112014-103827/
    • Vancouver

      Koga ML. Relational transfer across reinforcement learning tasks via abstract policies [Internet]. 2013 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-04112014-103827/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, VISÃO COMPUTACIONAL, RECONHECIMENTO DE PADRÕES, PROCESSAMENTO DE IMAGENS

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      WERNECK, Nicolau Leal. Estimação de orientação de câmera em ambientes antrópicos a partir de edgels. 2012. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2012. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03072013-154035/. Acesso em: 15 jul. 2024.
    • APA

      Werneck, N. L. (2012). Estimação de orientação de câmera em ambientes antrópicos a partir de edgels (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03072013-154035/
    • NLM

      Werneck NL. Estimação de orientação de câmera em ambientes antrópicos a partir de edgels [Internet]. 2012 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03072013-154035/
    • Vancouver

      Werneck NL. Estimação de orientação de câmera em ambientes antrópicos a partir de edgels [Internet]. 2012 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03072013-154035/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, ROBÓTICA, APRENDIZADO COMPUTACIONAL RELACIONAL

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      MATOS, Tiago. Uso de política abstrata estocástica na navegação robótica. 2011. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2011. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-12122011-152445/. Acesso em: 15 jul. 2024.
    • APA

      Matos, T. (2011). Uso de política abstrata estocástica na navegação robótica (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-12122011-152445/
    • NLM

      Matos T. Uso de política abstrata estocástica na navegação robótica [Internet]. 2011 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-12122011-152445/
    • Vancouver

      Matos T. Uso de política abstrata estocástica na navegação robótica [Internet]. 2011 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-12122011-152445/
  • Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, APRENDIZADO COMPUTACIONAL, TEORIA DA DECISÃO, PROCESSOS DE MARKOV

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      SILVA, Valdinei Freire da. Extração de preferências por meio de avaliações de comportamentos observados. 2009. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2009. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01072009-131819/. Acesso em: 15 jul. 2024.
    • APA

      Silva, V. F. da. (2009). Extração de preferências por meio de avaliações de comportamentos observados (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01072009-131819/
    • NLM

      Silva VF da. Extração de preferências por meio de avaliações de comportamentos observados [Internet]. 2009 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01072009-131819/
    • Vancouver

      Silva VF da. Extração de preferências por meio de avaliações de comportamentos observados [Internet]. 2009 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01072009-131819/
  • Fonte: IJCAI 07. Nome do evento: International Joint Conference on Artificial Intelligence. Unidade: EP

    Assuntos: ROBÔS, INTELIGÊNCIA ARTIFICIAL

    Como citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      ODAKURA, Valguima Victoria Viana Aguiar e REALI COSTA, Anna Helena. Efficient communication strategy for cooperative multirobot localization. 2007, Anais.. Hyderabad: CTIT / AMI, 2007. . Acesso em: 15 jul. 2024.
    • APA

      Odakura, V. V. V. A., & Reali Costa, A. H. (2007). Efficient communication strategy for cooperative multirobot localization. In IJCAI 07. Hyderabad: CTIT / AMI.
    • NLM

      Odakura VVVA, Reali Costa AH. Efficient communication strategy for cooperative multirobot localization. IJCAI 07. 2007 ;[citado 2024 jul. 15 ]
    • Vancouver

      Odakura VVVA, Reali Costa AH. Efficient communication strategy for cooperative multirobot localization. IJCAI 07. 2007 ;[citado 2024 jul. 15 ]
  • Fonte: IJCAI 07. Nome do evento: International Joint Conference on Artificial Intelligence. Unidade: EP

    Assuntos: INTELIGÊNCIA ARTIFICIAL, SISTEMAS MULTIAGENTES

    Como citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BIANCHI, Reinaldo Augusto da Costa e RIBEIRO, Carlos Henrique Costa e REALI COSTA, Anna Helena. Heuristic selection of actions in multiagent reinforcement learning. 2007, Anais.. Hyderabad: CTIT / AMI, 2007. . Acesso em: 15 jul. 2024.
    • APA

      Bianchi, R. A. da C., Ribeiro, C. H. C., & Reali Costa, A. H. (2007). Heuristic selection of actions in multiagent reinforcement learning. In IJCAI 07. Hyderabad: CTIT / AMI.
    • NLM

      Bianchi RA da C, Ribeiro CHC, Reali Costa AH. Heuristic selection of actions in multiagent reinforcement learning. IJCAI 07. 2007 ;[citado 2024 jul. 15 ]
    • Vancouver

      Bianchi RA da C, Ribeiro CHC, Reali Costa AH. Heuristic selection of actions in multiagent reinforcement learning. IJCAI 07. 2007 ;[citado 2024 jul. 15 ]
  • Unidade: EP

    Assuntos: VISÃO COMPUTACIONAL, INTELIGÊNCIA ARTIFICIAL, PROCESSAMENTO DIGITAL DE IMAGENS

    Acesso à fonteComo citar
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
    • ABNT

      BEM, Rodrigo Andrade de. Uma abordagem livre de modelo para rastreamento de objetos em seqüências de imagens. 2007. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2007. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-13072007-165802/. Acesso em: 15 jul. 2024.
    • APA

      Bem, R. A. de. (2007). Uma abordagem livre de modelo para rastreamento de objetos em seqüências de imagens (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/3/3141/tde-13072007-165802/
    • NLM

      Bem RA de. Uma abordagem livre de modelo para rastreamento de objetos em seqüências de imagens [Internet]. 2007 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-13072007-165802/
    • Vancouver

      Bem RA de. Uma abordagem livre de modelo para rastreamento de objetos em seqüências de imagens [Internet]. 2007 ;[citado 2024 jul. 15 ] Available from: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-13072007-165802/

Biblioteca Digital de Produção Intelectual da Universidade de São Paulo     2012 - 2024