Notícias

Banca de QUALIFICAÇÃO: FLÁVIO JOSÉ SCHAEFER FERLIN

Uma banca de QUALIFICAÇÃO de MESTRADO foi cadastrada pelo programa.
DISCENTE: FLÁVIO JOSÉ SCHAEFER FERLIN
DATA: 31/03/2025
HORA: 09:00
LOCAL: Sala de Videoconferência do PPGCC
TÍTULO: Atenção é tudo que você precisa na detecção de atenção? Transformers na avaliação de engajamento no contexto do aprendizado presencial do ensino fundamental e médio
PALAVRAS-CHAVES: Detecção de Atenção e Engajamento em Sala de Aula. Visão Computacional. Arquiteturas Transformers. IA Generativa. Dados Sintéticos. Large Language Models. IA Multimodal. Privacidad
PÁGINAS: 93
GRANDE ÁREA: Ciências Exatas e da Terra
ÁREA: Ciência da Computação
SUBÁREA: Sistemas de Computação
ESPECIALIDADE: Arquitetura de Sistemas de Computação
RESUMO:

A detecção automatizada dos níveis de atenção e engajamento em salas de aula representa um desafio relevante para a pesquisa em visão computacional e inteligência artificial, para além dos grandes laboratórios de pesquisa. Nesse contexto, esta dissertação investiga a utilização de arquiteturas baseadas em Transformers para aprimorar a precisão da classificação desses estados psíquicos, no âmbito do ensino fundamental. A pesquisa concentra-se na identificação de características visuais relevantes, como linguagem corporal e a orientação do corpo em relação aos objetos de atenção. Além disso, explora-se, pela práxis, a interação entre linguagem e imagem nos Transformers, possibilitando associações semânticas como característica do uso prevalente de vetores multidimensionais de representação (embedding vectors) e similaridade de cossenos, que servem de liame entre os sentidos expressos visualmente e através do vernáculo, associados aos mecanismos de atenção inerentes à arquitetura. Para mitigar eventuais vieses (etnias, gêneros, idades) e possibilitar o uso das técnicas de detecção de atenção voltada a um público alvo merecedor de especial proteção quanto à privacidade (menores de idade), foi criada uma base de dados sintética, utilizando modelos de IA generativa como o Stable Diffusion, a fim de representar diversos estados de atenção e desatenção em cenários realistas de sala de aula. Como contribuição central, propõe-se um conjunto de dados (dataset), apto ao ajuste fino (fine-tuning) de um modelo Vision Transformer CLIP, e um fluxo de trabalho (pipeline) que incorpore o uso de Grandes Modelos de Linguagem (Large Language Models) para a definição dos comandos condicionantes (prompts) aptos a gerá-las, e tecnologias multimodais interpretativas (imagem para texto), para análise e validação das imagens geradas e rotuladas. A dissertação busca responder a questões fundamentais, incluindo, na falta de uma definição precisa de "atenção" e "engajamento", a adequação de características visuais para sua mensuração para o uso da arquitetura Transformer. Além disso, avalia-se se o uso de imagens estáticas, sem componente temporal, é suficiente para essa tarefa. A estrutura do trabalho compreende a apresentação, como referencial teórico, de Transformers, IA generativa e visão computacional clássica, uma revisão do estado da arte, seguida da descrição da abordagem proposta e de experimentos realizados. Este trabalho visa democratizar o acesso à análise automatizada do engajamento estudantil no contexto específico, contribuindo também para a redução de possíveis vieses decorrentes de um dataset não balanceado.


MEMBROS DA BANCA:
Presidente - 1177449 - IVAN SARAIVA SILVA
Interno - 1350246 - KELSON ROMULO TEIXEIRA AIRES
Interno - 1446435 - VINICIUS PONTE MACHADO
Notícia cadastrada em: 06/03/2025 16:30
SIGAA | Superintendência de Tecnologia da Informação - STI/UFPI - (86) 3215-1124 | © UFRN | sigjb03.ufpi.br.instancia1 28/03/2025 00:02