Socially responsible and explainable automated fact-checking and hate speech detection (2024)
- Authors:
- Autor USP: VARGAS, FRANCIELLE ALVES - ICMC
- Unidade: ICMC
- Sigla do Departamento: SCC
- DOI: 10.11606/T.55.2024.tde-07012025-155212
- Subjects: PROCESSAMENTO DE LINGUAGEM NATURAL; INTELIGÊNCIA ARTIFICIAL; JUSTIÇA; DESINFORMAÇÃO; APRENDIZADO COMPUTACIONAL
- Keywords: Automated fact-checking and hate speech detection; Explainability and interpretability; Explicabilidade e interpretabilidade; Fairness; Natural language processing; Responsible artificial intelligence; Verificação automatizada de fatos e detecção de discurso de ódio
- Agências de fomento:
- Language: Inglês
- Abstract: A desinformação e o discurso de ódio têm um impacto negativo na sociedade, especialmente em áreas afetadas por conflitos e em países politicamente polarizados. Esses problemas são alimentados por divisões e rivalidades sociais, culturais, políticas, étnicas e religiosas que estão enraizadas e que muitas vezes são exacerbadas pela desinformação através de sistemas sofisticados de crenças, incluindo propaganda e teorias da conspiração. Nesse contexto, uma ampla gama de modelos para verificação de fatos e detecção de discurso de ódio tem sido proposto. No entanto, enquanto o Processamento de Linguagem Natural (PLN) tem tradicionalmente se baseado em técnicas que são inerentemente explicáveis (frequentemente referidas como técnicas caixa branca, como algoritmos baseados em regras, árvores de decisão, modelos ocultos de markov e regressões logísticas), o advento e a popularidade dos Modelos de Linguagem de Larga Escala (LLMs) frequentemente considerados técnicas caixa preta levaram a uma diminuição na interpretabilidade. O uso de embeddings de linguagem como atributos também contribuiu para essa tendência. Como resultado, a maioria dos modelos existentes de verificação de fatos e detecção de discurso de ódio tem dificuldades em fornecer justificações relevantes (explicações) para suas predições, destacando uma falta de transparência que representa riscos significativos, como a prevalência de viés. Isso foi recentemente identificado como uma grande preocupação no campo. Porexemplo, viés em tecnologias de discurso de ódio pode reforçar a discriminação contra grupos com base em sua identidade social quando propagado em larga escala. Da mesma forma, viés na verificação de fatos pode aumentar a polarização política devido a limitações na imparcialidade ou a tentativas deliberadas de favorecer ou desfavorecer indivíduos ou pontos de vista particulares. Para abordar essas lacunas críticas, esta tese apresenta um estudo sobre tecnologias de verificação de fatos e detecção de discurso de ódio e suas potenciais implicações éticas. Especificamente, fornece cinco recursos de dados de referência (HateBR, HateBRXplain, HausaHate, MOL, e FactNews) e três novos métodos (SELFAR, SSA e B+M) para verificação automatizada de fatos e detecção de discurso de ódio, garantindo que os dados e os modelos sejam explicáveis e socialmente responsáveis. Notavelmente, o HateBR e o B+M superaram os modelos e métodos de referência atuais para o Português. Em última análise, esperamos que nosso estudo, recursos de dados e métodos avancem a pesquisa sobre desinformação e discurso de ódio, contribuindo significativamente para as discussões em andamento sobre inteligência artificial responsável, explicabilidade e interpretabilidade, e justiça no Processamento de Linguagem Natural e Aprendizado de Máquina.
- Imprenta:
- Publisher place: São Carlos
- Date published: 2024
- Data da defesa: 25.11.2024
- Este periódico é de acesso aberto
- Este artigo é de acesso aberto
- URL de acesso aberto
- Cor do Acesso Aberto: gold
- Licença: cc-by-nc-sa
-
ABNT
VARGAS, Francielle Alves. Socially responsible and explainable automated fact-checking and hate speech detection. 2024. Tese (Doutorado) – Universidade de São Paulo, São Carlos, 2024. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-07012025-155212/. Acesso em: 26 dez. 2025. -
APA
Vargas, F. A. (2024). Socially responsible and explainable automated fact-checking and hate speech detection (Tese (Doutorado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55134/tde-07012025-155212/ -
NLM
Vargas FA. Socially responsible and explainable automated fact-checking and hate speech detection [Internet]. 2024 ;[citado 2025 dez. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-07012025-155212/ -
Vancouver
Vargas FA. Socially responsible and explainable automated fact-checking and hate speech detection [Internet]. 2024 ;[citado 2025 dez. 26 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-07012025-155212/ - Agrupamento semântico de aspectos para mineração de opinião
- Context-aware and expert data resources for brazilian portuguese hate speech detection
- Aspect clustering for sentiment analysis
- Toward discourse-aware models for multilingual fake news detection
- Rhetorical structure approach for online deception detection: a survey
- Improving explainable fact-checking via sentence-level factual reasoning
- Studying dishonest intentions in brazilian portuguese texts
- Discourse annotation guideline for low-resource languages
- HausaHate: an expert annotated corpus for hausa hate speech detection
- Linguistic rules for fine-grained opinion extraction
Informações sobre o DOI: 10.11606/T.55.2024.tde-07012025-155212 (Fonte: oaDOI API)
How to cite
A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas
