Exportar registro bibliográfico

Aprendizado em modelos de Markov com variáveis de estado escondidas (2005)

  • Authors:
  • Autor USP: ALAMINO, ROBERTO CASTRO - IF
  • Unidade: IF
  • Sigla do Departamento: FGE
  • Subjects: MECÂNICA ESTATÍSTICA CLÁSSICA; MECÂNICA ESTATÍSTICA
  • Language: Português
  • Abstract: Neste trabalho estudamos o aprendizado em uma classe específica de modelos probabilísticos conhecidos como modelos de Markov com variáveis de estado escondidas (em inglês, Hidden Markov Models ou HMMs). Primeiramente discutimos sua teoria básica e em seguida fazemos um estudo detalhado do comportamento de cinco diferentes algoritmos de aprendizado, dois deles já conhecidos na literatura e os outros três propostos por nós neste trabalho. Os cinco algoritmos estão descritos abaixo e são estudados na seqüência apresentada: Algoritmo de Baum-Welch (BW): consiste em um célebre algoritmo off-line obtido através da aplicação do algoritmo EM ao caso particular dos HMMs. Na literatura, é comum referir-se a ele pelo nome de Fórmulas de Reestimação de BaumWelch. Algoritmo de Baum-Welch On-line (BWO): versão on-line de BW proposta por nós. Algoritmo de Baldi-Chauvin (BC): algoritmo on-line proposto por Baldi e Chauvin em [5] onde uma representação do tipo softma:x é utilizada para as probabilidades dos HMMs e cujo objetivo é, a cada passo de iteração, maximizar a verossimilhança do modelo. Algoritmo Bayesiano On-line (BKL): algoritmo desenvolvido por nós baseado numa proposta de Opper [74], onde, após a atualização da distribuição de probabilidades do modelo a cada novo dado, projeta-se a densidade obtida em uma família paramétrica de distribuições tratáveis minimizando-se a distância de KullbackLeibler entre as duas. Algoritmo Posterior Média (PM): uma simplificação de BKL onde a projeção após a atualização é feita na distribuição posterior média. Para cada um dos algoritmos acima, obtemos curvas de aprendizado através de simulações onde utilizamos duas medidas distintas de erro de generalização: a distância de Kullback-Leibler (dKL) e a distância euclideana (d IND. E). (CONTINUA)(CONTINUAÇÃO) Com exceção do algoritmo BW, que só pode ser utilizado em situações de aprendizado off-line, estudamos para todos os outros algoritmos as curvas de aprendizado tanto para a situação on-line quanto para a off-line. Comparamos as performances dos algoritmos entre si e discutimos os resultados obtidos mostrando que, apesar de um tempo de computação maior, o algoritmo bayesiano PM, proposto por nós, é superior aos outros algoritmos não-bayesianos quanto à generalização em situações de aprendizado estáticas e possui uma performance muito próxima do algoritmo bayesiano BKL. Fazemos, também, uma comparação entre os algoritmos PM e BC em situações de aprendizado variáveis com o tempo, com dados gerados artificialmente e em uma situação com dados reais, porém com um cenário simplificado, onde os utilizamos para prever o comportamento do índice da bolsa de valores de São Paulo (IBOVESPA), mostrando que, embora necessitem de um período longo de aprendizado, após essa fase inicial as previsões obtidas por esses algoritmos são surpreendentemente boas. Por fim, apresentamos uma discussão sobre aprendizado e quebra de simetria baseada nos estudos feitos.
  • Imprenta:
  • Data da defesa: 10.11.2005
  • Acesso à fonte
    How to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas

    • ABNT

      ALAMINO, Roberto Castro. Aprendizado em modelos de Markov com variáveis de estado escondidas. 2005. Tese (Doutorado) – Universidade de São Paulo, São Paulo, 2005. Disponível em: http://www.teses.usp.br/teses/disponiveis/43/43134/tde-14112013-135303/. Acesso em: 23 abr. 2024.
    • APA

      Alamino, R. C. (2005). Aprendizado em modelos de Markov com variáveis de estado escondidas (Tese (Doutorado). Universidade de São Paulo, São Paulo. Recuperado de http://www.teses.usp.br/teses/disponiveis/43/43134/tde-14112013-135303/
    • NLM

      Alamino RC. Aprendizado em modelos de Markov com variáveis de estado escondidas [Internet]. 2005 ;[citado 2024 abr. 23 ] Available from: http://www.teses.usp.br/teses/disponiveis/43/43134/tde-14112013-135303/
    • Vancouver

      Alamino RC. Aprendizado em modelos de Markov com variáveis de estado escondidas [Internet]. 2005 ;[citado 2024 abr. 23 ] Available from: http://www.teses.usp.br/teses/disponiveis/43/43134/tde-14112013-135303/


Digital Library of Intellectual Production of Universidade de São Paulo     2012 - 2024