Large language models as tools for Bayesian causal discovery (2026)
- Authors:
- Autor USP: VIDEIRA, BRUNA BAZALUK MACHADO - IME
- Unidade: IME
- Sigla do Departamento: MAC
- DOI: 10.11606/D.45.2026.tde-18032026-165543
- Subjects: INFERÊNCIA BAYESIANA; INTELIGÊNCIA ARTIFICIAL; CAUSALIDADE; PROCESSAMENTO DE LINGUAGEM NATURAL
- Keywords: Bayesian causal discovery; Causal discovery; Causality; Descoberta causal; Descoberta causal Bayesiana; Grandes modelos de linguagem; Large language models
- Agências de fomento:
- Language: Inglês
- Abstract: Descoberta Causal (CD) é a tarefa de inferir estruturas causais automaticamente, usualmente a partir de dados observacionais. Recentemente, muitos trabalhos têm demonstrado interesse em utilizar o conhe- cimento contido nos Grandes Modelos de Linguagem (LLMs) para realizar tarefas de CD. Porém, os algoritmos de CD existentes atualmente que utilizam LLMs, geram apenas um único Grafo Direcionado Acíclico (DAG) sem nenhuma forma de incerteza, o que diminui a confiança no resultado. Logo, esta dissertação explora métodos de Aprendizado Estrutural Bayesiano (BSL) os quais produzem distribuições de grafos, representações naturais de incerteza e utiliza LLMs para aprimorar sua capacidade de inferência. Este trabalho tem três objetivos principais. Primeiramente, discutimos e revisamos algoritmos básicos de CD e abordagens baseadas em LLMs. Há também uma curta seção que explora diferentes modos de calcular a incerteza da saída de um LLM. Em segundo lugar, investigamos o uso de LLMs em conjunto com métodos de BSL para CD. Especificamente, propomos utilizar o conhecimento do LLM como uma distribuição a priori do modelo BSL sobre possíveis grafos. Nossos experimentos mostram que, tais distribuições a priori retiradas da LLM podem aperfeiçoar o desempenho dos métodos Bayesianos. Finalmente, o texto também traz um trabalho onde focamos em Grafos Ancestrais (AGs), o que nos permite lidar com modelos que contenham confundidores latentes. Além disso, nossa abordagem utiliza uma LLM comoum expert-in-the-loop, misturando a distribuição aprendida pelos dados com a informação recebida do especialista, no caso a LLM, durante o processamento do modelo. Nossos experimentos mostram que nosso método é competitivo em relação a outros que abordam confundidores latentes, tanto em conjuntos de dados sintéticos quanto reais; além disso, nosso design para incorporar o feedback de um especialista humano (simulado) ou de um LLM melhora a qualidade da inferência
- Imprenta:
- Data da defesa: 23.02.2026
- Status:
- Nenhuma versão em acesso aberto identificada
-
ABNT
VIDEIRA, Bruna Bazaluk Machado. Large language models as tools for Bayesian causal discovery. 2026. Dissertação (Mestrado) – Universidade de São Paulo, São Paulo, 2026. Disponível em: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-18032026-165543/. Acesso em: 31 mar. 2026. -
APA
Videira, B. B. M. (2026). Large language models as tools for Bayesian causal discovery (Dissertação (Mestrado). Universidade de São Paulo, São Paulo. Recuperado de https://www.teses.usp.br/teses/disponiveis/45/45134/tde-18032026-165543/ -
NLM
Videira BBM. Large language models as tools for Bayesian causal discovery [Internet]. 2026 ;[citado 2026 mar. 31 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-18032026-165543/ -
Vancouver
Videira BBM. Large language models as tools for Bayesian causal discovery [Internet]. 2026 ;[citado 2026 mar. 31 ] Available from: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-18032026-165543/
Informações sobre a disponibilidade de versões do artigo em acesso aberto coletadas automaticamente via oaDOI API (Unpaywall).
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
