|
Descrição |
|
|
-
MARCO AURÉLIO PENAFORT DIAS JÚNIOR
-
Reconhecimento de Formas Farmacêuticas Sólidas para Auxiliar Pessoas com Deficiência Visual
-
Orientador : LAURINDO DE SOUSA BRITTO NETO
-
Data: 30/09/2022
-
Mostrar Resumo
-
Neste trabalho de mestrado se deseja auxiliar pessoas com deficiência visual na administração de Formas Farmacêuticas Sólidas (FFS). O seu objetivo principal é desenvolver uma abordagem em visão computacional ao reconhecimento de FFS, compreendendo comprimidos, drágeas e cápsulas, com resultados superiores ou equiparados ao estado da arte em reconhecimento de FFS, e que possa ser utilizada por um sistema wearable. Um sistema wearable munido com tal abordagem, ajudaria uma pessoa com deficiência visual a tomar o medicamento correto, sem ajuda de terceiros, tornando-a mais independente e melhorando a sua qualidade e expectativa de vida. Isso evitaria que a pessoa com deficiência visual tomasse algum medicamento errado, o que poderia causar prejuízos à saúde dela. Para alcançar esse objetivo foi realizada uma revisão sistemática da literatura para definir e analisar o estado da arte sobre o tema. Foram verificados diversos trabalhos relacionados ao tema, o que proporcionou um acervo bastante consistente para o desenvolvimento da abordagem proposta. O conjunto de dados da National Library of Medicine (NLM) foi utilizado como fonte de dados, possibilitando o desenvolvimento desta pesquisa. Foram desenvolvidas duas abordagens utilizando classificadores de aprendizado supervisionado e redes neurais convolucionais (CNNs) para transferência de aprendizado. A abordagem que utilizou a própria CNN EfficientNetB7 como classificador, juntamente com o uso da técnica de aumento de dados, obteve os melhores resultados no reconhecimento de FFS, com taxas de acurácia maiores que 92%. Além disso, essa abordagem demonstrou robustez perante a quatro cenários metodológicos diferentes, chegando, em um desses cenários, à uma taxa de de acurácia média superior a 98%.
|
|
|
-
VITOR MENESES DE VASCONCELOS
-
LoRaWAN Expandido com a Implementação da Topologia Cluster-Tree Escalonada e do Mecanismo de Acesso ao Meio CSMA/CA para RSSFs de Larga Escala
-
Orientador : ERICO MENESES LEAO
-
Data: 31/08/2022
-
Mostrar Resumo
-
A tecnologia de modulação de rádio LoRa vem sendo empregada para alavancar a comunicação de longas distâncias em Redes de Sensores sem Fio (RSSFs), viabilizando que as Low Power Wide Area Networks (LPWANs) sejam empregadas em aplicações de monitoramento da Internet das Coisas (IoT). Redes baseadas na modulação de rádio Long-Range (LoRa), usualmente implementam o protocolo LoRaWAN como a camada de acesso ao meio (MAC), apesar deste protocolo possuir certas limitações, como por exemplo, o suporte apenas à topologia de rede estrela. Nesta topologia, o alcance das transmissões está restrito a um único salto e, portanto, os dispositivos não contam com retransmissões ao longo da rede para tentar alavancar sua área de cobertura e, também, contornar atenuações de sinal com a distância, presença de obstáculos, ou com interferências de outras fontes de rádio. Diante destas circunstâncias e para buscar expandir o alcance das transmissões em uma topologia estrela, rádios LoRa contêm os parâmetros bandwidth (BW), spreading factor (SF) e coding rate (CR), que podem ser customizados para esta expansão de alcance, apesar de estes ajustes por si só, ocorrem às custas de um maior consumo energético e de uma maior probabilidade de colisão de pacotes, devido ao aumento no tempo em que os rádios dos dispositivos necessitam permanecerem ligados para concluir uma transmissão nestas novas configurações de parâmetros. Outra limitação conhecida em redes LoRaWAN que afeta sua performance, seu consumo energético, bem como a sua adequabilidade para o uso em extensas RSSF de larga escala, é a existência do protocolo de acesso ao meio do tipo ALOHA, que não provê controles, verificação do canal ou sincronismos para as transmissões. Em redes com muitos dispositivos, este protocolo tende a maiores probabilidades de colisão de pacotes e, consequentemente, gera retransmissões e gastos energéticos que poderiam ser evitados caso fosse adotado um mecanismo de acesso ao meio mais adequado para RSSF de larga escala. Diante das limitações expostas e, para que o protocolo LoRaWAN possa ser melhor utilizado em RSSFs de larga escala, propõe-se a implementação de uma topologia que possa ampliar a cobertura da rede, bem como utilizar um mecanismo de acesso ao meio que melhor atenda aos recursos limitados de dispositivos LoRaWAN. Este trabalho de Mestrado propõe o desenvolvimento de uma RSSF de larga escala LoRaWAN multi-saltos, baseada na topologia cluster-tree, que visa expandir a cobertura espacial, sincronizar clusters e dispositivos, permitir a escalabilidade da rede, bem como buscar evitar colisões, melhorar métricas de comunicação e reduzir o consumo energético, com a utilização do novo mecanismo de acesso ao meio CSMA/CA. Como produto deste trabalho, entrega-se uma avaliação de desempenho por simulação desta rede, aplicada à diferentes cenários de RSSFs de larga escala, a fim de atestar os melhoramentos propostos.
|
|
|
-
JOSÉ NAZARENO ALVES RODRIGUES
-
Uma Proposta para Auxílio no Pré-Diagnóstico do TEA Através da Classificação de Imagens Faciais Bidimensionais Estáticas Utilizando Deep Learning
-
Orientador : KELSON ROMULO TEIXEIRA AIRES
-
Data: 31/08/2022
-
Mostrar Resumo
-
O número de pessoas com transtorno do espectro autista (TEA) vem aumentando significativamente. Em decorrência disso, somado a fatores socioeconômicos, o acesso ao tratamento precoce tem se tornado restrito, reduzindo os potenciais ganhos advindos dessa intervenção e aumentando os gastos familiares e sociais em decorrência de intervenções tardias. Alternativas viáveis para contornar problemas relacionados ao TEA nesse contexto, podem residir em soluções computacionais móveis pelo seu caráter acessível. Em observância a isso, este trabalho propõe uma solução para auxílio ao pré-diagnóstico do TEA de forma não invasiva e de baixo custo. Para tanto, apoia-se em técnicas e conceitos de aprendizado de máquina (AM), mais especificamente de aprendizado profundo, para a geração de modelos que possam apoiar a implementação de soluções computacionais móveis. Assim, foram avaliadas neste trabalho, 5 arquiteturas de redes neurais convolucionais (CNN) no treinamento de modelos para classificação binária do TEA, utilizando como entrada imagens bidimensionais estáticas. Trabalhos semelhantes analisados na literatura utilizam tipos de imagens que inviabilizam sua utilização massiva em decorrência da necessidade de equipamentos específicos e nem sempre acessíveis, além de invasivos, comprometendo a espontaneidade nos resultados. Destarte, há poucos sistemas de diagnóstico do autismo desenvolvidos que possam de fato ser usados na prática. Dentre as 5 arquiteturas CNNs utilizadas, destacaram-se a MobileNet e a DenseNet201. Os resultados obtidos a partir delas nestas avaliações preliminares, atingiram, nos melhores casos, a média de 90,7 % de acurácia com cada uma dessas 2 arquiteturas, e desvio padrão de 0,68 % e 1,64 %, respectivamente. Resultados de execuções individuais chegaram nos melhores casos a 93,5 % de acurácia com a DenseNet201. Em experimentos complementares, com participantes diagnosticados com TEA, realizados com o apoio de um estabelecimento de saúde, a ResNet50V2 atingiu em execuções individuais o melhor resultado (83,3 %). Outro ponto em aberto na literatura que o presente trabalho busca avaliar é o tamanho dos modelos gerados. Essa questão ganha relevância no contexto dos dispositivos embarcados ou móveis, uma vez que estes dispositivos possuem maiores limitações em termos de hardware.
|
|
|
-
NATANAEL RIBEIRO DA SILVA
-
Um Mecanismo de Controle de Congestionamento Local Disparado por Eventos Através de Compactação de Dados para RSSFs Cluster-Tree baseadas no Padrão IEEE 802.15.4
-
Orientador : ERICO MENESES LEAO
-
Data: 31/08/2022
-
Mostrar Resumo
-
A Internet das Coisas (IoT - Internet of Things) é uma inovação tecnológica que tem se tornado bastante atrativa no âmbito comercial, industrial e residencial. Por conta disso, houve uma crescente aplicação principalmente nos negócios, com o desenvolvimento de mecanismos de comunicação eficientes e desenvolvimento de aplicações em Redes de Sensores Sem Fio (RSSF). A essa grande aplicabilidade torna-se necessária uma avaliação de benefícios, estratégias e dificuldades enfrentadas na aplicação dessa tecnologia. O conjunto de normas IEEE 802.15.4 e ZigBee forma uma pilha adequada de protocolos para implantação de RSSFs, oferecendo interoperabilidade, mobilidade e autonomia entre dispositivos. Essas normas, que suportam as topologias estrela e peer-to-peer, operam sob baixo consumo energético, baixo custo, armazenamento reduzido e baixas taxas de comunicação. Estas normas especificam uma topologia especial peer-to-peer chamada cluster-tree, na qual permite a sincronização de nós e é apontada como uma das topologias mais apropriadas para implantação em ambientes de larga escala. Nesse contexto, a ocorrência de congestionamentos (acentuados pelas limitações dos dispositivos quanto a transmissão de dados) evidencia-se um dos maiores desafios de RSSFs cluster-tree de larga escala. Diante disso, torna-se necessário criar mecanismos eficientes para mitigar os elevados atrasos de comunicação fim-a-fim e as possíveis perdas de pacotes que são comuns num ambiente congestionado, sem comprometer a integridade dos dados. Este trabalho de mestrado propõe a utilização de um mecanismo de compactação local eficiente como forma de evitar ou postergar congestionamentos para redes de sensores sem fio cluster-tree de larga escala baseadas nas normas IEEE 802.15.4/ZigBee. Partindo do pressuposto de uma arquitetura de RSSF cluster-tree já implantada, este trabalho implementa um mecanismo eficiente que possa compactar os dados transmitidos pelos nós sensores evitando ou postergando um possível congestionamento da rede. A ideia subjacente é a implementação de um sistema dinâmico orientado a eventos, que aciona o mecanismo de compressão a fim de reduzir a quantidade de dados a serem transmitidos, e dessa forma, fornecer qualidade de serviço para o típico fluxo de monitoramento, reduzindo congestionamentos, atrasos de comunicação fim-a-fim e perdas de pacotes. Como resultados, este trabalho pretende contribuir com o estado da arte de RSSFs cluster-tree e faz uma avaliação de desempenho por simulação, aplicados a diferentes cenários de RSSFs utilizando diversas métricas de rede, mostrando a eficiência do mecanismo proposto.
|
|
|
-
VALNEY DA GAMA COSTA
-
Descoberta de Risco em Licitações baseado em Técnicas de Aprendizagem de Máquina: uma Análise sobre os Dados do Tribunal de Contas do Estado do Piauí
-
Orientador : VINICIUS PONTE MACHADO
-
Data: 31/08/2022
-
Mostrar Resumo
-
A licitação é o processo administrativo em que um órgão público oferta às empresas interessadas a oportunidade de efetuarem propostas para a realização de serviços ou compra de um ou mais produtos para este ente e escolhe dentre elas a que melhor supre o que é pedido, respeitando critérios definidos em lei. O Tribunal de Contas do Estado do Piauí é um dos órgãos públicos de controle externo, responsável pela fiscalização contábil, financeira e orçamentária de outros órgãos e entidades do estado do Piauí. Os auditores do TCE/PI têm dificuldade em examinar todos os procedimentos licitatórios publicados antes da efetivação e gasto financeiro dos envolvidos. Este trabalho tem como objetivo descobrir antecipadamente ou durante a execução dos procedimentos licitatórios, um rótulo de risco que facilite sua fiscalização. Portanto pretende-se definir a criação de um modelo de decisão baseada em aprendizagem de máquina em conjunto com técnicas de processamento de linguagem natural, para tratamento de atributos textuais e descritivos, aplicado aos procedimentos licitatórios publicados no Tribunal de Contas do Estado do Piauí, melhorando as técnicas de fiscalizações dos Tribunais de Contas a partir de dados públicos das próprias licitações publicadas no órgão, e informações de análises anteriores de auditores. Os modelos desenvolvidos utilizaram os algoritmos J48, RandomForest e Redes Neurais Multicamadas (MLP) e obtiveram acurácias médias até 81%, com destaque ao algoritmo de RandomForest, responsável por obter acurácia máxima de 82%.
|
|
|
-
WELLINGTON PACHECO SILVA
-
Sentinela: Metodologia de Acompanhamento e Controle de Avaliação de Aprendizado em Plataforma de Ensino Virtual
-
Orientador : ANDRE CASTELO BRANCO SOARES
-
Data: 30/08/2022
-
Mostrar Resumo
-
Nos últimos anos, os exames online têm sido amplamente utilizados para avaliar o desempe- nho dos alunos, especialmente durante a pandemia Covid-19. As novas tecnologias digitais possibilitaram a ampliação do leque de formas de ensino e aprendizagem a distância. No entanto, devido à falta de interação face a face, o monitoramento do exame online se tornou um desafio. Neste contexto, o presente trabalho apresenta uma proposta de monitoramento digital de aplicação de exame online através da fiscalização da janela ativa do navegador. Somado a isso, são realizadas capturas de fotos dos participantes por meio da webcam para processamento e classificação dessas imagens por meio de Rede Neural Convolucional, chegando a uma análise da posição do olhar (dentro ou fora da tela). Os resultados sugerem que o avaliador terá condições de, a partir das informações repassadas pela ferramenta, inferir se houve alguma prática ilícita durante o processo de avaliação.
|
|
|
-
JAMES DA LUZ DIAS
-
O impacto da luminosidade na detecção da região de interesse usando rastreamento ocular
-
Orientador : ANDRE CASTELO BRANCO SOARES
-
Data: 30/08/2022
-
Mostrar Resumo
-
O rastreamento ocular é um procedimento que busca identificar para onde uma pessoa está olhando, como também analisar processos cognitivos. Com a evolução dos estudos sobre rastreamento ocular, surgiu o rastreamento ocular por vídeo, método não intrusivo e que requer tão somente de um dispositivo (computador, tablet, smartphone etc) com uma câmera e um software para a execução do rastreamento. Esse tipo de rastreamento não faz uso de led infravermelho (IR) e por isso necessita de uma luminosidade adequada no ambiente para estimar o movimento do olhar com precisão. De posse de uma metodologia de detecção da região de interesse usando rastreamento ocular e diante da carência de luminosidade, motivou-se em estudar as possibilidades de mitigar tal problema. A primeira investida em busca de um solução se deu em fazer uso de técnicas de processamento e aprimoramento das imagens obtidas em ambiente com pouca luminosidade, poŕem os resultados revelaram ser desvantajoso a realização do tratamento das imagens. Em seguida, em uma nova intervenção verificou-se a influência do nível de luminosidade com um luxímetro no momento da captura das imagens. Já com essa segunda intervenção, os resultados apontaram o fator luminosidade como um ponto crucial para o rastreamento ocular eficiente.
|
|
|
-
FILIPE SOARES VIANA
-
Avaliação de Classificadores para Predição de Evasão no Ensino Superior Utilizando Janela Semestral
-
Orientador : ANDRE MACEDO SANTANA
-
Data: 29/08/2022
-
Mostrar Resumo
-
A evasão estudantil nas universidades vem se apresentando como um problema recorrente e preocupante no mundo ao longo dos anos. Essa situação se torna algo ainda mais alarmante no Brasil em suas universidades públicas com orçamento oriundo dos cofres da nação, problema esse não limitado ao prejuízo financeiro, mas também social e acadêmico. Diminuir a evasão se torna uma ação importante nas universidades, sendo de grande ajuda um mecanismo para classificar alunos ativos na sua predisposição para evadir. Esse trabalho se propõe a classificar e prever um discente ativo como “Evadido” ou "Formado", podendo assim os interessados redirecionarem esforços para evitar que o discente evada. Serão utilizados 4 estudos de casos: o primeiro utilizando dados do curso de Ciência da Computação da Universidade Federal do Piauí (UFPI); o segundo com os discentes do curso de Sistemas de Informação e o terceiro caso com a analise ocorrendo com a os dois cursos anteriores. A metodologia abordada segue os conceitos de Knowledge Discovery in Databases (KDD) como guia na obtenção de um modelo preditivo e de conhecimentos no processo. O KDD descreve o processo de coleta dos dados, pré-processamento e, por fim, a mineração dos dados utilizando algoritmos de aprendizagem de máquina. São utilizados 7 algoritmos muito utilizados na literatura, comparando-os do decorrer das análise. O modelo treinado é validado com métricas importantes como Accuracy, Recall, Precision, F1 Score, Índice Kappa e curva ROC.
|
|
|
-
WESLEY GERALDO DE OLIVEIRA DA NÓBREGA
-
Estudo e Análise de Desempenho do Protocolo LoRaWAN para o Monitoramento Remoto de Doenças Crônicas
-
Orientador : JOSE VALDEMIR DOS REIS JUNIOR
-
Data: 26/08/2022
-
Mostrar Resumo
-
Segundo a Organização Mundial de Saúde (OMS), as doenças crônicas não transmissíveis matam 7 em cada 10 pessoas em todo mundo. O monitoramento e tratamento dessas doenças requer o deslocamento frequente dos pacientes aos hospitais e centros de saúde, muitas vezes bem distantes de suas residências, causando aumento nas suas despesas financeiras, dos sistemas de saúde governamentais, planos de saúde, dentre outros. Dentre essas doenças crônicas monitoráveis as cardíacas são a maior causa de mortes e invalidez dos últimos 20 anos, havendo claramente a necessidade de ações focadas na prevenção e no tratamento. Neste contexto, os avanços nos sensores vestíveis e nos protocolos de comunicação contribuem de forma direta no apoio à saúde. Movido por essa demanda, o presente trabalho tem como objetivo estudar e analisar a performance de um sistema que utiliza componentes de Internet das Coisas (Internet of Things - IoT) para o monitoramento remoto de doenças crônicas, em especial doenças cardiovasculares, com coleta e processamento de dados de eletrocardiograma (ECG). Utilizou-se para transmissão desses dados a tecnologia Long-Range (LoRa) sob o protocolo LoRaWAN. Nesse estudo foram observados os dados lidos pelos sensores, tratados de forma a serem transmitidos para os gateways de maneira correta levando-se em consideração parâmetros como distância entre nós (sensores) e o gateway, relevo do ambiente e fatores de espalhamento (SF). Como figuras de mérito, verificou-se os parâmetros de rede como o indicador de força do sinal recebido (RSSI), latência e relação sinal-ruído (SNR) em cenários reais com características urbanas (domésticas e hospitalares) e rurais e analisou-se o comportamento nestes cenários. Com a utilização desses dados fornecidos pela rede, foi idealizado e implementado um sistema de Inferência Fuzzy com o objetivo de otimizar o consumo de bateria do sistema. Os resultados obtidos mostraram que cada cenário tem suas particularidades e no caso dos testes feitos em ambiente urbano/doméstico os SF7 e SF8 se comportaram melhor em distâncias de até 30 metros com obstáculos. Já em ambiente urbano/hospitalar o melhor resultado foi com SF10, alcançando até 120 metros, com obstáculos, realizando a coleta de pacotes de rede. No cenário rural, utilizou-se o SF12, com alcance de transmissão de até 400 metros. A contribuição do estudo vai da abordagem direta e medições feitas em diferentes ambientes urbano e rural, bem como a automatização dos tempos de coleta de dados e transmissão via rede de acordo com o sistema Fuzzy proposto e modelado, aumentando o tempo de vida útil da bateria, tornando assim um processo mais dinâmico e independente da interferência humana.
|
|
|
-
CRISTIANO NERI DA SILVA
-
Estudo e Análise de Estratégias de Posicionamento de Gateway LoRa e Quantificação de QoS em Função das Características de Configuração LoRaWAN
-
Orientador : JOSE VALDEMIR DOS REIS JUNIOR
-
Data: 25/08/2022
-
Mostrar Resumo
-
As redes de longa distância de baixa potência (LPWAN) são tecnologias que ganharam interesse na pesquisa e comunidade industrial para dispositivos e aplicações de Internet das Coisas (IoT) assim como o protocolo LoRa Wide Area Network (LoRaWAN) que permite a implementação de aplicações de redes de longo alcance e baixa potência para a IoT. Seu esquema de modulação, Long Range (LoRa), utiliza diversos parâmetros de transmissão como Spreading Factor (SF), Payload Size (PS), Bandwidth (BW) e Coding Rate (CR) permitindo uma comunicação bidirecional, possibilitando ao LoRaWAN o uso de algoritmo adaptativo, o Adaptive Data Rate (ADR), para atribuir esses parâmetros dinamicamente explorando as vantagens do LoRa. No entanto, o sistema de controle ADR não ajusta os parâmetros considerando a evolução da Qualidade de Serviço (QoS) das aplicações, sendo o planejamento da rede e a otimização considerados problemas significativos impactando no desempenho e nos custos das despesas de capital (CAPEX) e operacionais (OPEX). Nesse contexto, este trabalho propõe determinar a quantidade de diferentes QoS analisando as características do conjunto de configurações LoRaWAN através da combinação dos métodos gap statistic com algoritmo Fuzzy C-Means (FCM) e elbow com K-means. Adicionalmente, realizou-se agrupamento com FCM baseado nas métricas Bit Error Rate (BER), Received Signal Strenght Indicator (RSSI) e Time on Air (ToA) e desenvolver um estudo comparativo de estratégias de posicionamento de gateways (GW) que usam os algoritmos FCM, Gustafson-Kessel (GK) e K-means; adicionando uma estratégia que segmenta o cenário em grades de 2km, posicionando o GW no centro, e outra que dispõe os GWs aleatoriamente, avaliando as métricas RSSI, Signal to Noise Ratio (SNR), delay e distância, possibilitando uma redução do número de GW e dos custos CAPEX e OPEX como também estabelecer o desempenho das estratégias para as métricas. Nos resultados determinaram agrupamentos adequados conforme os diferentes tipos de QoS baseado na combinação dos métodos, enquanto o FCM permitiu agrupar as aplicações com QoS similares. O estudo comparativo mostrou uma redução da quantidade de GW e dos custos CAPEX e OPEX com aproximadamente a mesma proporção de entrega em relação ao Grid25; as estratégias FCM e GK obtiveram desempenho superior, a partir de 22 GW, para as métricas RSSI e SNR em relação ao Kmeans, já a FCM e Kmeans apresentaram menores distâncias e delay comparado ao GK a partir de 18 GW.
|
|
|
-
JÊZIEL COSTA MARINHO
-
Avaliação Automática de Redações: Uma abordagem baseada nas competências do ENEM
-
Orientador : RAIMUNDO SANTOS MOURA
-
Data: 25/08/2022
-
Mostrar Resumo
-
A Avaliação Automática de Redações (AAR), por meio de técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM), busca avaliar e pontuar textos em prosa escrita. No Brasil, o Exame Nacional do Ensino Médio (ENEM) contém, atualmente, a maior prova de redação do país na qual exige-se a produção de um texto em prosa, do tipo dissertativo-argumentativo, cujo o processo de correção levar em consideração 5 competências estabelecidas pela matriz de referência da redação do ENEM. Esta pesquisa objetivou investigar e propor estratégias para AAR escritas na língua portuguesa por meio de uma abordagem baseada na criação e revisão de um corpus anotado de redações do ENEM criado a partir da extração automatizada de redações da internet, bem como na definição de conjuntos de features específicas para cada competência e o desenvolvimento de modelos de AAR baseados em métodos de engenharia de features, Embeddings Doc2Vec e Redes Neurais Recorrentes LSTM para predizer a nota de uma redação para cada uma das 5 competência. Os resultados obtidos demonstraram que os modelos baseados em engenharia de fatures obtiveram os melhores resultados paras competências 1 e 2 com nível de concordância moderado, já para as com competências 3, 4 e 5, o modelo baseado em RNN do tipo LSTM obtiveram um melhor desempenho com o nível de concordância também moderado. Os resultados obtidos foram validados por meio de uma ferramenta web de AAR desenvolvida com os modelos de AAR que obtiveram os melhores resultados nesta pesquisa. Com esta ferramenta, alunos do ensino médio puderam ter suas redações avaliadas pelos modelos de AAR e um avaliador humano. A concordância entre as notas do avaliador humano e dos modelos de AAR alcançaram um nível moderado para as 5 competências e bom para a nota final. Apesar de mais estudos serem necessários, os resultados obtidos demonstraram que a abordagem adotada nesta pesquisa tem potencial para ser usada para a avaliação automática de redações escritas em português em larga escala.
|
|
|
-
JÊZIEL COSTA MARINHO
-
Avaliação Automática de Redações: Uma abordagem baseada nas competências do ENEM
-
Orientador : RAIMUNDO SANTOS MOURA
-
Data: 25/08/2022
-
Mostrar Resumo
-
A Avaliação Automática de Redações (AAR), por meio de técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM), busca avaliar e pontuar textos em prosa escrita. No Brasil, o Exame Nacional do Ensino Médio (ENEM) contém, atualmente, a maior prova de redação do país na qual exige-se a produção de um texto em prosa, do tipo dissertativo-argumentativo, cujo o processo de correção levar em consideração 5 competências estabelecidas pela matriz de referência da redação do ENEM. Esta pesquisa objetivou investigar e propor estratégias para AAR escritas na língua portuguesa por meio de uma abordagem baseada na criação e revisão de um corpus anotado de redações do ENEM criado a partir da extração automatizada de redações da internet, bem como na definição de conjuntos de features específicas para cada competência e o desenvolvimento de modelos de AAR baseados em métodos de engenharia de features, Embeddings Doc2Vec e Redes Neurais Recorrentes LSTM para predizer a nota de uma redação para cada uma das 5 competência. Os resultados obtidos demonstraram que os modelos baseados em engenharia de fatures obtiveram os melhores resultados paras competências 1 e 2 com nível de concordância moderado, já para as com competências 3, 4 e 5, o modelo baseado em RNN do tipo LSTM obtiveram um melhor desempenho com o nível de concordância também moderado. Os resultados obtidos foram validados por meio de uma ferramenta web de AAR desenvolvida com os modelos de AAR que obtiveram os melhores resultados nesta pesquisa. Com esta ferramenta, alunos do ensino médio puderam ter suas redações avaliadas pelos modelos de AAR e um avaliador humano. A concordância entre as notas do avaliador humano e dos modelos de AAR alcançaram um nível moderado para as 5 competências e bom para a nota final. Apesar de mais estudos serem necessários, os resultados obtidos demonstraram que a abordagem adotada nesta pesquisa tem potencial para ser usada para a avaliação automática de redações escritas em português em larga escala.
|
|
|
-
RAFAEL MORAIS DA CUNHA
-
Uma proposta de solução tecnológica de baixo custo para rastreamento ocular
-
Orientador : KELSON ROMULO TEIXEIRA AIRES
-
Data: 19/08/2022
-
Mostrar Resumo
-
Os olhos fornecem informações sobre interesse, humor, atenção, sono, habilidades cognitivas, sociais, etc. A tecnologia de eye tracking possibilita o rastreamento e o registro do olhar dos usuários sobre estímulos visuais em diferentes ambientes digitais e analógicos. Essa tecnologia ainda enfrenta o fator preço como um grande impeditivo para sua ampla adoção. Mesmo as soluções open-source ainda apresentam valores, para muitos segmentos, impraticáveis. Este trabalho apresenta um sistema de rastreamento ocular embarcado em óculos utilizando componentes de baixo custo para utilização em ambiente real de sala de aula. Os experimentos para atestar a acurácia do sistema foram realizados em ambiente fechado com iluminação controlada e posicionando o usuário a diferentes distâncias dos objetos. Resultados indicaram uma taxa de acerto da solução acima de 96% para estímulos visuais de dimensões aproximadas de 50x50 cm, e erro angular médio abaixo de 1°, estando o usuário a mais de 2 m de distância do estímulo visual. A fim de atestar a aplicabilidade do sistema proposto, os óculos foram utilizados em ambiente real de sala de aula por estudantes do ensino médio. O objetivo do experimento foi comparar o comportamento ocular de estudantes do ensino presencial com o ensino online. Observou-se que os 2 grupos apresentaram um comportamento similar, com maior concentração do olhar no rosto do professor. Porém essa concentração não foi a mesma: no ensino presencial o professor recebeu 30,52% do total de fixações, enquanto que no ensino \textit{online} o percentual foi de 23,40%.
|
|
|
-
MAURA GÉSSICA RODRIGUES DA ROCHA
-
Detecção e identificação de parasitas da malária usando detectores de objetos baseados em redes neurais profundas: uma ampla análise comparativa
-
Orientador : RODRIGO DE MELO SOUZA VERAS
-
Data: 18/05/2022
-
Mostrar Resumo
-
A malária é uma doença infecciosa transmitida pela picada da fêmea do mosquito Anopheles,
infectada por Plasmodium, disseminada em regiões tropicais e subtropicais do planeta. O
diagnóstico precoce e o tratamento imediato e eficaz são necessários para evitar alguns
problemas, tais como: anemia, falência de órgãos e mortes. A microscopia manual é a
principal técnica usada para o diagnóstico da malária. Porém, esse exame é trabalhoso e
requer profissionais qualificados. A fim diminuir essas dificuldades, pesquisadores estão
utilizando conceitos de aprendizagem de máquina para detectar e identificar células
infectadas pelo parasita Plasmodium. Este trabalho apresenta um estudo comparativo de
quatro versões recentes da rede neural convolucional You Only Look Once (YOLO), são elas:
YOLOv3 PyTorch, YOLOv4, Scaled-YOLOv4 e YOLOv5; e as redes Single Shot MultiBox
Detector (SSD), EfficientDet e Faster R-CNN para a detecção e classificação do parasita
da malária em seis cenários diferentes. Foram utilizados quatro conjuntos de imagens
públicas para os testes, MP-IDB, B, BBBC041v1 e IML-Malaria, com 210, 1.182, 1.328 e
345 imagens, respectivamente. O modelo YOLOv5 superou os outros modelos avaliados.
Nos testes com o modelo YOLOv5, os seis cenários apresentaram os seguintes resultados:
detecção e classificação de P. falciparum com mAP (90,03%); diferenciar espécies de
P. falciparum e P. vivax o modelo alcançou mAP (92,76%); diferenciar células sanguíneas
saudáveis e infectadas mAP (92,46%); diferenciar as quatro espécies de parasitas da
malária: P. falciparum, P. malaria, P. ovale e P. vivax obteve mAP (85,76%); diferenciar
as fases de vida do parasita com mAP (82,80%) e diferenciar leucócito vs. hemácia vs. anel
vs. gametócito vs. esquizonte vs. trofozoíto com mAP (63,30%). Seus resultados tiveram
desempenho semelhante aos trabalhos do estado da arte, demonstrando a viabilidade
e eficácia do YOLOv5 para detectar e identificar parasitas da malária em imagens de
esfregaço de sangue fino com alta precisão e sensibilidade.
|
|
|
-
LAIARA CRISTINA DA SILVA
-
Um descritor híbrido de dados clínicos com textura ou deep features para classificação de patologias renais
-
Orientador : VINICIUS PONTE MACHADO
-
Data: 26/04/2022
-
Mostrar Resumo
-
A importância da função glomerular na fisiologia renal e o fato de suas lesões afetarem outros segmentos do néfron caracterizam as enfermidades glomerulares, como um dos principais problemas em Nefrologia nos dias de hoje. No Brasil, as glomerulopatias são uma das causas mais comuns de falência renal e responsáveis por cerca de 27% dos transplantes. Desta forma, encontrar e classificar lesões glomerulares são etapas fundamentais para o diagnóstico de muitas doenças renais e que contam com a experiência de um nefropatologista. Além disso, muitos fatores como fadiga e trabalho repetitivo inerentes à profissão podem conduzir a um diagnóstico errado. Por outro lado a Aprendizagem de Máquina se apresenta como importante ferramenta devido à sua capacidade de simular o conhecimento de um especialista a partir de experiências passadas, por isso, vêm sendo utilizada com sucesso na resolução de muitos problemas complexos. Tendo isso em vista, este trabalho realiza um estudo comparativo entre os algoritmos de Aprendizagem de Máquina Árvore de Decisão, SVM, Random Forest e MLP a fim de propor um modelo de classificador que auxilie o profissional especialista na definição de um diagnóstico de patologia renal. Concomitante ao estudo comparativo entre os classificadores, este trabalho também analisa 6 descritores de textura das imagens, cuja combinação de 1 ou mais desses descritores será adicionada aos dados clínicos correspondentes à cada imagem e juntos servirão como entrada de um classificador. Além disso, outro conjunto híbrido de dados clínicos com deep features foram testados, ao todo foram testadas 5 redes pré-treinadas. Os melhores resultados que obtivemos foi quando concatenamos os recursos de DC e HOG, que resultou em um excelente índice Kappa e acurácia de 98,46% e quando concatenamos DC e MobileNet, obtivemos índice Kappa excelente e acurácia de 95,38%.
|
|
|
-
FRANCISCO DAS CHAGAS TORRES DOS SANTOS
-
DFU-VGG uma nova e aprimorada rede VGG-19 para classificação de úlceras do pé diabético
-
Orientador : RODRIGO DE MELO SOUZA VERAS
-
Data: 20/04/2022
-
Mostrar Resumo
-
Uma complicação causada pelo diabetes mellitus é o aparecimento de feridas situadas na região dos pés denominadas Úlceras do Pé Diabético. O tratamento tardio ou inadequado pode acarretar o surgimento de infecção ou isquemia da úlcera que, em estado avançado, pode ocasionar a amputação dos membros inferiores. Neste trabalho, foi realizado um comparativo do desempenho das arquiteturas VGG-16, VGG-19, InceptionV3, ResNet50, InceptionResNetV2, DenseNet201, MobileNetV2 e EfficientNetB0 na classificação de imagens de Úlceras do Pé Diabético de duas bases de dados públicas com um total de 8.250 imagens. Para estas redes, foi aplicado um refinamento profundo com e sem alterações nas camadas finais (totalmente conectadas). Além disso, as redes VGG-16 e VGG-19 sofreram alterações na arquitetura interna, sendo adicionadas camadas de dropout e batch normalization. A avaliação proposta levou em consideração quatro classes: inexistente (que contém imagens de pele saudável, úlceras em processo de cicatrização e de úlceras sem isquemia ou infecção), isquemia, infecção e ambas (úlceras com isquemia e infecção). As melhores configuração das redes testadas foram as VGG-16 e VGG-19 com uma camada densa de 512 neurônios e com camadas de batch normalization, que obtiveram índice Kappa acima dos 89,00% e uma acurácia média de 93,44% e 93,45%, respectivamente. Os resultados alcançados demonstram que a proposta consegue classificar corretamente as imagens, visto que, nos testes realizados o índice Kappa atingiu valores considerados “Excelentes”.
|
|
|
-
MARINA DOS REIS BARROS ALENCAR
-
Rotulação Automática de Grupos Através do Uso de Filtros de Ganho de Informação de Atributos
-
Orientador : VINICIUS PONTE MACHADO
-
Data: 12/04/2022
-
Mostrar Resumo
-
Identificar semelhanças nos dados que não foram rotulados, classificados ou categorizados é uma das funções do aprendizado não supervisionado. O agrupamento (do inglês clustering) é uma técnica que permite dividir automaticamente o conjunto de dados de acordo com uma similaridade. A grande vantagem do uso das técnicas de agrupamento é que, ao agrupar dados similares, pode-se descrever de forma mais eficiente e eficaz as características peculiares de cada um dos grupos identificados. Dessa forma, este trabalho tem como objetivo a interpretação desses grupos através de rótulos. O rótulo é um conjunto de valores relevantes que representam uma definição para um grupo. Esta abordagem utilizou técnicas com aprendizagem de máquina não supervisionada, aplicação dos filtros de ganho de informação através da seleção de atributos e um modelo de discretização. Na metodologia proposta foi aplicado o algoritmo não supervisionado para formação dos grupos e diferentes filtros de seleção de atributos para expor a relevância dos atributos e comparar o funcionamento deles. Também, para contribuir no processo de rotulação foi utilizado um método de discretização auxiliando no cálculo da variação de valores dos dados. O modelo proposto foi aplicado na rotulação das bases de dados disponíveis no repositório UCI, sendo elas, Íris, Seeds, Wine e Glass. Obtendo-se uma taxa de acerto média de 83.66% com desvio padrão médio de 4.98.
|
|
|
-
KANNYA LEAL ARAÚJO
-
Distribuição de Relatórios de Bugs para Desenvolvedores de Software Usando um Método Evolutivo Multipopulacional
-
Orientador : RICARDO DE ANDRADE LIRA RABELO
-
Data: 25/02/2022
-
Mostrar Resumo
-
A complexidade de um software aumenta à medida em que seu tamanho, também, aumenta. Esse aumento pode refletir um crescimento na quantidade de bugs ou falhas, tornando o processo manual de atribuição de bugs mais complexo, demorado e sujeito a erros. Técnicas existentes, de automatização desse processo, atribuem relatórios de bugs usando somente dados dos relatórios corrigidos anteriormente. Isso pode resultar em atribuições a desenvolvedores inativos. Adicionalmente, uma parcela significativa das atribuições normalmente não considera a carga de trabalho dos desenvolvedores, podendo sobrecarregar alguns e tornar o processo de correção mais demorado. Este trabalho propõe uma abordagem para distribuição de relatórios de bug que combina a experiência e as atividades recentes dos desenvolvedores, bem como, sua carga de trabalho. Quando um novo relatório é recebido, estima-se o esforço para corrigir o bug a partir de bugs semelhantes e calcula-se a afinidade de cada desenvolvedor com o arquivo que contém o erro utilizando um sistema de Inferência Fuzzy. Posteriormente, é utilizado a meta-heurística Golden Ball para atribuir esses relatórios aos desenvolvedores de acordo com a afinidade e carga de trabalho. Resultados experimentais mostram que os melhores resultados da abordagem proposta atingem valores ideais para alocação de 7, 8 e 10 relatórios e no pior caso (9 relatórios) chega a 99,94% do valor ideal, quando comparados com um algoritmo de força bruta. A abordagem, também, obteve médias significativamente melhores em 92,30% das instâncias quando comparado ao um Algoritmo Genético e 84,61% quando comparado com um Algoritmo Genético Distribuído, sendo que em apenas 23,07% dos casos não houve uma diferença significativa entre as técnicas.
|
|
|
-
ENZA RAFAELA DE SAMPAIO FERREIRA
-
Otimização por Enxame de Partículas e Fluxo de Carga Continuado para Leilões de Energia Elétrica com Restrição de Estabilidade de Tensão
-
Orientador : RICARDO DE ANDRADE LIRA RABELO
-
Data: 23/02/2022
-
Mostrar Resumo
-
Diante das mudanças ocasionadas nos mercados competitivos de eletricidade, várias estruturas de mercados foram propostas para promover concorrência com vistas a se obter energia elétrica, e uma delas foram os mercados de leilão de compra/venda de energia. Os leilões de energia referem-se aos negócios realizados para contratar energia, porém a implantação de novas linhas de transmissão e a realização dessas transações exigem a definição de regras sobre tarifas, segurança e qualidade dos serviços entre os agentes envolvidos, desde preços acessíveis aos consumidores como clareza nas negociações entre geradoras e concessionárias. Portanto, este trabalho propõe um modelo de fluxo de potência ótimo com restrição de estabilidade/segurança de tensão (VSCOPF) e sua estrutura de resolução. Nesta modelagem, o problema externo é um sistema de leilão de fluxo de potência ótimo com estabilidade/segurança de tensão de período único, cuja restrição de estabilidade de tensão depende dos limites de estabilidade/restrições de segurança determinados pelo problema interno formulado como um problema de máximo carregamento de sistema de potência. A estrutura da solução é baseada na aplicação do algoritmo Particle Swarm Optimization (PSO) para resolução do sistema de leilão, além da solução do problema de máximo carregamento pelo Fluxo de Carga Continuado respeitando restrições de magnitudes de tensão e geração de energia reativa e utilizando o método de penalidades. Pretende-se, desta forma, garantir condições mínimas de segurança adequadas ao sistema e preços de energia adequados a todos os participantes. Experimentos com um sistema IEEE de 6 barras e estudos de casos foram realizados para validar a proposta e mostrar a eficácia da aplicação desta abordagem para aquisição de energia no mercado de eletricidade, aplicando o PSO e o Fluxo de Carga Continuado.
|
|