Últimas Notícias
Banca de QUALIFICAÇÃO: GHIVVAGO DAMAS SARAIVA
Uma banca de QUALIFICAÇÃO de MESTRADO foi cadastrada pelo programa.
DISCENTE: GHIVVAGO DAMAS SARAIVA
DATA: 29/05/2024
HORA: 08:00
LOCAL: Sala virtual do Google Meet
TÍTULO: LLMeFT-Transformer: uma abordagem de TDL para detecção de Discurso de Ódio e Toxicidade em Redes Sociais
PALAVRAS-CHAVES: Ódio, Toxicidade, Processamento de Linguagem Natural, Tabular Deep Learning, FT-Transformer.
PÁGINAS: 80
GRANDE ÁREA: Ciências Exatas e da Terra
ÁREA: Ciência da Computação
SUBÁREA: Metodologia e Técnicas da Computação
RESUMO:

Nos últimos anos, a incidência de ódio e toxicidade nas redes sociais tem crescido exponencialmente, tornando-se um fenômeno cada vez mais complexo que permeia os ambientes virtuais. Esse fenômeno, agora intrínseco às interações sociais online, tem sido alvo de análise e detecção por parte das comunidades científicas, expandindo-se para além das disciplinas tradicionais como Direito, Sociologia, Psicologia e Política, adentrando também nas áreas de Processamento de Linguagem Natural, Aprendizado de Máquina e Linguística. Nesse contexto, este estudo propõe uma abordagem para identificar comentários tóxicos ou que contenham discurso de ódio nas redes sociais, utilizando uma combinação de Tabular Deep Learning e Processamento de Linguagem Natural. O objetivo é ampliar um modelo preditivo baseado em Transformer, o FT-Transformer, para detectar com precisão satisfatória se um comentário textual, como um tweet, possui conteúdo tóxico ou de ódio. Uma parte crucial deste trabalho é a geração e processamento das características textuais. Essas características são construídas a partir de modelos pré-treinados como Sentence-Transformer e BERT (tais como BERTimbau e Albertina PT-BR), sendo depois agregadas e interpretadas por meio de um Text Embedder, ou seja, um incorporador textual de características. O ToLD-Br fora selecionado como conjunto de dados para treinamento, teste e validação do modelo proposto. O modelo alcançou uma acurácia de 94% e 96% nos conjuntos de teste e validação, respectivamente, ao utilizar o Sentence-Transformer Multilingual-E5-base. Já para o BERTimbau, a acurácia foi de 91% e 89%, enquanto para o Albertina PT-BR foi de 92% e 90%. Os resultados obtidos até o momento indicam o desempenho singular da abordagem, que pode ser aprimorada com a incorporação de novas características e técnicas de modo a melhorar sua capacidade de lidar com textos, incluindo nuances da linguagem utilizada nas redes sociais em geral. Há espaço para melhorias e desenvolvimento futuro, visando garantir sua robusta habilidade em classificar comentários contendo ódio e toxicidade, destacando-o como uma opção disruptiva em relação às abordagens mais tradicionais e comuns para lidar com dados estruturados em tabelas e classificação de textos


MEMBROS DA BANCA:
Presidente - 1226761 - RAIMUNDO SANTOS MOURA
Interno - 1579396 - RODRIGO DE MELO SOUZA VERAS
Interno - 1446435 - VINICIUS PONTE MACHADO
Externo à Instituição - RAFAEL TORRES ANCHIÊTA - IFPI

Cadastrada em: 09/05/2024
Mais Notícias
Processos Seletivos Veja abaixo os processos seletivos disponíveis para nosso Programa de Pós-Graduação.
Calendário Fique por dentro dos eventos relacionados ao nosso Programa de Pós-Graduação.
  • 06/03/2024 - 08/03/2024 · Matrícula para o período 2024.1.
  • 18/03/2024 · Início do período letivo 2024.1.
SIGAA | Superintendência de Tecnologia da Informação - STI/UFPI - (86) 3215-1124 | © UFRN | sigjb04.ufpi.br.sigaa 19/05/2024 00:13