Dissertações/Teses

2024
Descrição
  • FRANCISCO MARCOS DA SILVA ROCHA
  • Avaliação de Performabilidade de uma Arquitetura de Sistema de Monitoramento de Pacientes em Hospitais Inteligentes com Fontes de Dados Interna e Externa
  • Orientador : FRANCISCO AIRTON PEREIRA DA SILVA
  • Data: 26/08/2024
  • Mostrar Resumo
  • A variedade de tipos de sensores para monitoramento de saúde ajuda na tomada de decisão por profissionais da área. Para determinados quadros clínicos é interessante o monitoramento da saúde do paciente pós-alta. Dispositivos vestíveis de monitoramento de saúde (como smartwatches) podem ser utilizados para enviar dados para o hospital. No entanto, para o monitoramento de inúmeros pacientes (externos e internos), é necessária uma infraestrutura computacional resiliente, de alta disponibilidade e de alto desempenho. Tais características exigem equipamentos de alto custo monetário. Para planejar tal infraestrutura, esta dissertação apresenta um modelo SPN (Stochastic Petri Network) para avaliação de desempenho e disponibilidade de uma arquitetura de sistema hospitalar multicamadas (edge-fog-cloud). O modelo permite avaliar o tempo médio de resposta (MRT), nível de utilização de recursos (U) e probabilidade de perda de dados (DP). Uma característica bem específica é considerar duas fontes de dados (interna e externa). Este trabalho pode auxiliar administradores de data centers de hospitais a melhor planejar o uso de seus recursos.

  • CLÉDJAN TORRES DA COSTA
  • União de Dados por Clusterização para Construção de Modelos de Predição de Evasão
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 08/06/2024
  • Mostrar Resumo
  • O rápido avanço da tecnologia, sobretudo nas instituições de ensino, tem dado origem a
    vastos volumes de dados que, por meio do processo de Descoberta de Conhecimento em
    Bancos de Dados, têm o potencial de proporcionar consideráveis benefícios a instituições,
    estudantes, professores e colaboradores. Este estudo se concentra na aplicação desse processo
    para a previsão da evasão escolar, enfocando uma situação em que os conjuntos de dados
    podem não ser tão extensos quando considerados em um contexto de cursos individuais. No
    entanto, quando esses conjuntos são agrupados com outros que compartilham características
    semelhantes, podem aprimorar significativamente a capacidade preditiva. Para atingir
    esse objetivo, adotou-se uma abordagem de duas etapas em cascata. Na primeira etapa,
    uma abordagem não supervisionada de clusterização foi empregada, visando agrupar
    cursos com características afins. A segunda etapa, por sua vez, empregou uma técnica
    supervisionada de classificação para criar modelos de predição de evasão. Esses modelos
    foram criados tanto de forma individualizada para cada curso como a partir de dados de
    cursos agrupados, seguindo a estrutura definida pelo algoritmo de clusterização da etapa
    anterior. Essa abordagem permitiu uma comparação direta entre os modelos. Além disso, a
    temporalidade dos dados foi levada em consideração, com a divisão dos dados em períodos,
    do 1º ao 8º, sendo o último, na maioria dos cursos, o semestre de conclusão esperado. Os
    resultados obtidos destacam a eficácia da utilização de agrupamentos de cursos por meio
    da clusterização para otimizar a capacidade preditiva dos modelos de evasão escolar.

  • JUCIÊ XAVIER DA SILVA
  • Avaliação de plataformas low code e no code como estratégia para aumento da produtividade no desenvolvimento de software
  • Orientador : GUILHERME AMARAL AVELINO
  • Data: 14/05/2024
  • Mostrar Resumo
  • Desde o início da era digital, a indústria de software tem enfrentado uma crescente e constante demanda por soluções tecnológicas sofisticadas. Esta demanda acelerada tem intensificado a busca por aprimoramentos na produtividade e eficiência do desenvolvimento. Ao longo dos anos, diversas estratégias e inovações têm sido propostas, desde a adoção da programação orientada a objetos até a implementação de Ambientes de Desenvolvimento Integrado (IDEs) e a incorporação de metodologias ágeis. Entre as propostas mais recentes e potencialmente transformadoras, destacam-se as plataformas de desenvolvimento low-code e no-code.
    Diante deste cenário, o presente estudo se debruça sobre uma análise dessas plataformas emergentes, enfocando, sobretudo, nas alegações de melhoria substancial na produtividade. Para esse estudo, adoutou-se uma metodologia dividida em duas etapas. A primeira etapa consistiu em uma revisão de literatura multivocal, que engloba tanto fontes acadêmicas tradicionais, a literatura branca, quanto fontes informais e contemporâneas, a literatura cinza. Buscou-se, com isso, extrair o máximo de informações sobre os benefícios e desafios dessas plataformas, enriquecendo os achados literários. Na segunda etapa, analisou-se na prática os achados da revisão literária, realizando um estudo de caso empírico, através do desenvolvimento de um protótipo, que promove a coleta seletiva de lixo, constituído de três perfis (Coletor, Produtor e Reciclador), e desenvolvido utilizando as plataformas OutSystems e Bubble. Objetivou-se correlacionar teoria e prática e proporcionar uma análise abrangente.
    Como resultados do estudo, foi possível observar uma série de vantagens e desafios associados ao uso dessas plataformas. Entre as vantagens, destacam-se a abstração de código, a automatização de tarefas repetitivas, a reutilização de componentes e a simplificação da colaboração entre os membros da equipe de desenvolvimento. Também foram identificados desafios, como a dependência de plataforma, requisitos de conhecimento técnico, funcionalidades limitadas e preocupações com segurança de dados.

  • MANOEL MESSIAS PEREIRA MEDEIROS
  • Rotulação Automática de Grupos com Árvores de Decisão: Uma Abordagem Comparativa
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 06/05/2024
  • Mostrar Resumo
  • O volume exponencial de dados impulsiona o crescimento da análise de dados. Agrupar
    dados em grupos é uma técnica importante, mas a interpretação dos grupos pode ser
    desafiadora. A rotulação automática de grupos com árvores de decisão pode ajudar a
    resolver este problema. Afim de se validar este modelo de rotulação automática de grupos
    com uso de árvores de decisão este trabalho apresenta uma comparação entre quatro
    algoritmos de árvore de decisão no contexto da rotulação automática de grupos. Inicial-
    mente, destacamos a importância dos modelos de rotulação de grupos como ferramentas
    para auxiliar especialistas na interpretação de dados, fornecendo uma definição concisa
    das principais características dos grupos. A escolha do algoritmo de árvore de decisão
    impacta significativamente na performance do modelo, conforme demonstrado em um
    estudo comparativo utilizando os algoritmos ID3, C4.5, CART e CHAID. Os resultados
    revelaram que o algoritmo CHAID obteve os melhores resultados nas bases Íris e Sementes,
    enquanto o algoritmo C4.5 foi mais eficaz nas bases Vinho e Vidros. As taxas de concor-
    dância do algoritmo de melhor desempenho em cada base se aproximaram ou superaram a
    média encontrada na literatura. A validade do modelo de rotulação automática de grupos
    foi confirmada, destacando a importância da escolha criteriosa do algoritmo de árvore
    de decisão.Os resultados deste estudo ressaltam o potencial dos modelos de rotulação
    automática de grupos e a relevância da seleção adequada do algoritmo de árvore de decisão.
    Pesquisas futuras são essenciais para aprimorar o modelo e expandir suas aplicações,
    contribuindo para diversos campos, como descoberta de padrões em bancos de dados,
    identificação de grupos em estudos de bioinformática e segmentação de mercado-alvo com
    necessidades semelhantes.

     

  • MAURÍLIO LACERDA LEONEL JÚNIOR
  • Uma Estratégia de Ensemble Aplicada sobre Modelos de Predição de Evasão do Ensino Superior Com Janelas Semestrais
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 22/04/2024
  • Mostrar Resumo
  • Com o aumento no volume de dados gerados pelos sistemas de informação educacionais,
    a Mineração de Dados se tornou uma abordagem promissora de investigação sobre importantes
    causas educacionais, como a evasão nos mais diversos níveis de ensino, em
    especial o ensino superior. Segundo Hipolito (2023), mais de 2,3 milhões de alunos aptos a
    matricular-se em disciplinas em 2021 abandonaram o ensino superior, de acordo com o
    censo mais recente da educação superior, resultando em um prejuízo financeiro superior a
    R$ 23 bilhões. Neste estudo de Mineração de Dados Educacionais (MDE), desenvolvemos
    modelos de classificação com aprendizado supervisionado e cinco abordagens com métodos
    Ensembles aplicadas a dados reais coletados de uma Instituição Federal de Ensino Superior.
    No primeiro cenário, criamos modelos do tipo Bagging utilizando a estratégia de Janelas
    Semestrais na construção dos conjuntos de dados envolvidos. No segundo cenário, além da
    abordagem de Janelas Semestrais (Nível Período), criamos conjuntos de dados em outros
    dois níveis adicionais (Curso e Instituição) e combinamos os modelos gerados (cada um
    associado a um conjunto de dados de nível distinto) por meio de técnicas de Ensemble
    Stacking. A combinação das abordagens formando modelos Stacking com as predições dos
    modelos Bagging resultou em um maior nível de robustez e na maximização dos resultados
    (mensurados por Acurácia e MCC) mesmo com o uso de um único algoritimo por modelo,
    ao explorar a diversidade nos diferentes níveis de dados.

  • FRANCISCO ALYSSON DA SILVA SOUSA
  • Avaliação de modelos preditivos baseados em aprendizagem de máquina no contexto da evasão escolar considerando um cenário multicampi
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 05/04/2024
  • Mostrar Resumo
  • A evasão escolar assim como os fatores diversos relacionados a esse comportamento despontam
    como um dos grandes desafios ao pleno desenvolvimento da educação. No contexto nacional, estima-se que 27% do número total de alunos matriculados não concluem o percurso formativo previsto nas respectivas ofertas. Delimitando-se na proposta da Rede Federal de Educação Profissional, Científica e Tecnológica (RFEPCT), especificamente na Educação Profissional Técnica de Nível Médio (EPTNM) ofertada no Instituto Federal do Piauí(IFPI), esse estudo identificou um alarmante decréscimo no número de concluíntes que já supera os 47% no percentual acumulado nos últimos 5 (cinco) anos, conforme estatísticas oficiais apresentadas na Plataforma Nilo Peçanha (PNP). Assim, a identificação de forma prévia da tendência a esse comportamento certamente contribui como subsídio para o direcionamento de estratégias de enfrentamento. Nesse sentido, o uso da inteligência artificial, especificamente na subárea aprendizado de máquina, apresenta-se como importante recurso preditivo de apoio à gestão educacional. É nessa perspectiva que se define a proposta deste trabalho em avaliar classificadores quanto a ocorrência de evasão no âmbito do ensino técnico multicampi, para tanto, foram aplicados os algoritmos de Decision Tree (DT), Random Forest (RF), Gradient Boost (GB), Multi-Layer Perceptron (MLP) e Support Vector Machine (SVM). Os modelos utilizados foram submetidos a análises comparativas a partir de estudos de casos com dados extraídos da PNP, sistema do Ministério de Educação alimentado e validado diretamente pelas instituições. Os resultados dos dois modelos melhor avaliados (DT e RF) apresentam médias superiores a 90% considerando todas as unidades de ensino da instituição destacando ainda uma tendência de evolução nas performances que favorece o potencial escalável da proposta à RFEPCT. Os valores obtidos expressam a sensibilidade e a precisão com suas relevâncias equiparadas e resumidas pela métrica F-score.

  • KENAD WANDERSON ARAUJO SILVA
  • Reconhecimento de Cédulas Monetárias Falsas para Auxiliar Pessoas com Deficiência Visual
  • Orientador : LAURINDO DE SOUSA BRITTO NETO
  • Data: 22/03/2024
  • Mostrar Resumo
  • O crime de falsificação de moeda é muito comum no Brasil e no mundo, sendo responsável pelo volume de quase 28,78 milhões de reais falsificados em 2022. Essa modalidade de crime, prevista no código penal, afeta, além da população em geral, as pessoas com deficiência visual. De acordo com a Organização Mundial de Saúde (OMS), em 2022, a população de pessoas com deficiência visual representa cerca de 2,2 bilhões de pessoas no mundo. Essas pessoas podem se achar desamparadas, uma vez que as limitações acometidas pela deficiência visual dificultam a identificação dos elementos de segurança contidas em uma cédula monetária verdadeira. Por essa razão, uma Tecnologia Assistiva (TA), que são produtos ou equipamentos que visam auxiliar as pessoas com deficiência em suas tarefas diárias, relacionada ao reconhecimento de cédula falsa deveria ser desenvolvida, a fim de auxiliar essas pessoas no seu cotidiano. Por essa razão, o objetivo deste trabalho é o desenvolvimento de uma abordagem em visão computacional para o reconhecimento de cédulas monetárias falsas, com resultados superiores ou equiparados à outras abordagens do estado da arte. Para isso, foi necessário o desenvolvimento de um conjunto de dados de imagens de cédulas brasileiras (cédulas de Real). Tal conjunto de dados é bastante desafiador, visto que as imagens para teste simulam uma pessoa com deficiência visual capturando fotografias da cédula. Por exemplo, as imagens de teste aparecem dobradas, com oclusões parciais em virtude do dedo do fotografo que cobre boa parte da cédula. O fundo das imagens são repletos de informações desnecessárias, variação de iluminação, entre outros. Memos assim, para esse novo conjunto de dados, foram obtidos resultados que alcançaram 97,1% de acurácia, 100% de precisão, 100% de especificidade, 94,52% de recall e 97,18% de F1-score, por meio de uma abordagem holística que utiliza para extração de características CNN/RESNET50 e classifica com SVM. Por fim, novos trabalhos serão necessários para expandir o conjunto de dados atual, com cédulas falsas capturadas de cenários reais, e aplicar novos modelos de transferência de aprendizagem.

  • LEONEL FEITOSA CORREIA
  • Avaliação de Desempenho de Migração de Contêineres com Redes de Petri Estocásticas
  • Orientador : FRANCISCO AIRTON PEREIRA DA SILVA
  • Data: 06/03/2024
  • Mostrar Resumo
  • As tecnologias de contêineres estão presentes na maioria dos data centers ao redor do mundo. Esses contêineres operam normalmente em um único host controlador, interagindo com um único kernel. Para garantir o funcionamento adequado das aplicações distribuídas, é fundamental que os contêineres possam ser realocados de forma simples, mantendo a continuidade do sistema. Por exemplo, o Kubernetes pode encerrar a execução de um contêiner sem estado e, em seguida, iniciar um equivalente a ele em outro host. No entanto, a migração de contêineres com estado ainda não é nativamente aplicável ao Kubernetes. A motivação por trás da realização da migração de contêineres é preservar a disponibilidade dos dados contidos em contêineres com estado e otimizar a eficiência operacional dos próprios data centers. Para facilitar essas migrações, existem ferramentas como o Checkpoint Restoration In Userspace (CRIU), adaptadas para o processo de migração de contêineres. O problema de pesquisa está no alto custo envolvido ao fazer uma predição do desempenho de migração de contêiner em ambientes reais. Este trabalho focou na métrica de Tempo Total de Migração (MTT), que foi inspirada na literatura. Esta dissertação propõe um modelo baseado na rede de Petri estocástica (SPN) para a modelagem de políticas de migração de contêineres especificamente. O foco principal é avaliar os fatores que influenciam o MTT, levando em consideração a quantidade de elementos migrados simultaneamente e a capacidade paralela do sistema de migração, além de calcular a probabilidade associada à conclusão bem-sucedida do processo de migração em um determinado período. Por fim, foi também realizada uma Análise de Sensibilidade (DoE) conduzido para a política Hybrid.

2023
Descrição
  • REGINALDO RODRIGUES DAS GRAÇAS
  • Mobilidade Urbana em Cidades Inteligentes: Proposta e Modelagem UML de uma Placa Veicular Inteligente
  • Orientador : IVAN SARAIVA SILVA
  • Data: 31/08/2023
  • Mostrar Resumo
  • A mobilidade urbana é uma preocupação constante nas cidades que visam melhorar a qualidade de vida dos seus cidadãos, por meio da otimização de rotas, controle dos semáforos, monitoramento das rotas, disponibilidade de frota, minimização de acidentes e de tempo de atendimento, entre outros. Nesse contexto, o conceito de cidades inteligentes visa mitigar problemas urbanos emergentes com emprego de soluções inovadoras a fim de melhorar a qualidade de vida das pessoas (os cidadãos). Em cidades inteligentes tem-se falado em termos como “mobilidade inteligente”, que tem se concentrado em aumentar a eficiência e a qualidade dos serviços de transporte urbanos, para aprimorar o uso e a adoção de novas soluções de mobilidade, bem como aumentar a mobilidade das pessoas por meio de gerenciamento de mobilidade eficiente e investimentos em infraestrutura. Partindo deste entendimento e apostando no uso de métodos e técnicas da computação embarcada e da internet das coisas (IoT - Internet of Tings), este trabalho teve como objetivo geral propor uma modelagem para a implementação de uma Placa Veicular Inteligente (PVI). Para a modelagem adotou-se a UML (Unified Modeling Language), que se apresenta como uma linguagem de modelagem visual, semanticamente e sintaticamente rica, utilizada em projetos de sistemas de software. Como embasamento teórico optou-se pela realização de um Mapeamento Sistemático da Literatura, sobre tecnologias computacionais utilizadas em cidades inteligentes para mobilidade urbana. Dessa forma, a principal contribuição desta dissertação está na proposta de modelagem de uma inovadora Placa Veicular Inteligente (nenhuma outra referência foi encontrada na literatura) que deve contribuir com a coleta e processamento de informações acerca do tráfego urbano.

  • ANTONIO HENRIQUE LIMA DO VALE
  • Classificação Automática de Gastos Públicos no Combate à COVID-19: um Estudo de Caso do TCE/PI
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 28/07/2023
  • Mostrar Resumo
  • Com o surgimento da COVID-19, os governos estaduais e municipais receberam recursos financeiros vultosos para a gestão da pandemia. Além disso, as regras das contratações públicas para o combate do novo coronavírus foram flexibilizadas, permitindo uma maior agilidade na utilização desses recursos. O volume de recursos e a flexibilização das regras das contratações dificultaram as ações dos órgãos de controle no combate aos desvios de recursos públicos, tal qual a classificação das despesas no enfrentamento da COVID-19, que por ser feita de forma manual se tornou ineficaz. Essa classificação das despesas é essencial para a transparência dos dados. Logo, um sistema de classificação automática se faz necessário. Essa pesquisa explora modelos de classificação automática dos objetos das contratações públicas destinadas ao enfretamento da pandemia da COVID-19, aplicando técnicas de Processamento de Linguagem Natural (PLN). O trabalho foi concebido baseado na Teoria de Processamento de Informação, em especial, no conceito que compara o processamento de informação com o modelo de aprendizagem humana. Os modelos foram desenvolvidos considerando os dados extraídos da classificação manual das contratações publicadas nos diários oficiais. Analisou-se diversos métodos utilizando abrodagens de Aprendizagem de Máquina (AM) clássicas e profundas (Deep Learning) com embeddings de documentos. Os resultados obtidos alcançaram uma acurácia de 96% utilizando o BERTimbau, que é um modelo BERT pré-treinado para a língua portuguesa. Adicionalmente, o modelo que utilizou o método de Deep Learning superou em 5% o modelo que utilizou embbedings de documentos e em mais de 10% os modelos que utilizaram abordagens clássicas.

  • FÁBIO CORDEIRO
  • Classificação de Comunicados de Irregularidades da Ouvidoria do TCE/PI Utilizando Técnicas de Aprendizado Profundo
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 23/06/2023
  • Mostrar Resumo
  • Com o crescente envolvimento da sociedade na fiscalização de gastos públicos por meio de manifestações, torna-se necessário adotar modelos computacionais inteligentes para analisar e compreender essas manifestações em formato textual, com isso garantir uma resposta mais rápida e eficiente aos anseios da sociedade. O objetivo deste trabalho é explorar a utilização de técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM) para classificar as manifestações recebidas pela Ouvidoria do Tribunal de Contas do Estado do Piauí (TCE/PI). Pretende-se investigar modelos de AM que possam substituir o trabalho manual de classificação de manifestações (Comunicados de Irregularidades) e comparar os resultados obtidos para selecionar o melhor modelo. Dado o baixo número de Comunicados de Irregularidades classificados e para superar o problema do desbalanceamento de classes, foram utilizadas as técnicas de função de perda ponderada e reamostragem. Além disso, foram realizados testes em três configurações diferentes: sem a aplicação de técnicas, com a função de perda ponderada e com a reamostragem e função de perda ponderada. Entre os modelos de AM testados, o modelo Support Vector apresentou o segundo melhor desempenho em todos os testes: no teste com o dataset original obteve 80,17% de F1-Score, no teste com perda ponderada, obteve 82,23% de F1- Score e no teste combinando reamostragem e perda ponderada obteve 81,60% de F1-Score. Em todos os testes o modelo Bidirectional Encoder Representations from Transformers (BERT) foi superior em todas as métricas, obtendo os melhores resultados nos testes com reamostragem do dataset de treinamento e função de perda ponderada, com a 86,22% de F1-Score. Com o uso da ferramenta "Weights & Biases"para encontrar o melhor conjunto de hyperparâmetros, o modelo BERT chegou a 88,58% de acurácia. Os experimentos demostraram que o modelo de linguagem BERT supera todos os outros modelos testados. Em relação às técnicas para superar o desbalanceamento das classes, a função de perda ponderada apresentou um ganho considerável, mas os melhores resultados foram obtidos com a combinação das duas técnicas, função de perda ponderada e reamostragem.

  • JÚLIO VÍTOR MONTEIRO MARQUES
  • Detecção de Lesões Causadas pela COVID-19 em Imagens de Tomografia Computadorizada: Uma Abordagem Baseada em Técnicas de Pré-Processamento e Aprendizado Profundo
  • Orientador : ROMUERE RODRIGUES VELOSO E SILVA
  • Data: 23/02/2023
  • Mostrar Resumo
  • A COVID-19 é uma doença infecciosa causada pelo novo coronavírus (SARS-COV-2). O número global de casos e mortes totaliza 662 milhões e 6.7 milhões em janeiro de 2023, respectivamente. Como esta doença é altamente contagiosa, o diagnóstico deve ser feito em sua fase inicial para que as medidas necessárias sejam tomadas, incluindo o isolamento do paciente. Além do diagnóstico, também é importante identificar como essa doença se apresenta nos pacientes, observando o acometimento dos pulmões. Com isso, é possível acompanhar a evolução dessa doença no paciente. Assim, é apresentada uma abordagem para detecção de lesões causadas pela COVID-19 em pacientes, utilizando imagens de tomografia computadorizada. A primeira etapa da metodologia proposta é encontrar quais fatias do exame possuem a região pulmonar. Para isso, propomos um método que classifica imagens de acordo com a presença ou não da região pulmonar, isso é realizado a partir do treinamento de uma rede neural convolucional. A segunda etapa consiste em segmentar possíveis lesões, nessa etapa são utilizadas somente as imagens que possuem região pulmonar, de acordo com a saída da etapa de classificação das regiões pulmonares. Para segmentar as lesões, primeiramente aplicamos etapas de pré-processamento e após isso, treinamos uma rede U-Net que é amplamente utilizada para segmentação em imagens médicas, juntamente com a técnica de aumento de dados. Neste trabalho, utilizamos vários experimentos onde o K-Fold representa o melhor método de avaliação. A metodologia proposta obteve as seguintes métricas: 78,40% de Dice, 64,80% de IoU, 78% de Sensibilidade, 100% de Especificidade, 89,60% de AUC e 81% de Precisão. Com isso, concluímos que o método para pré-processamento oferece uma forma de padronizar os exames de tomografia computadorizada, assim como a classificação se mostra promissora para a redução de falsos positivos e por fim, a segmentação apresenta resultados robustos com menor custo computacional em termos de parâmetros treináveis.

2022
Descrição
  • MARCO AURÉLIO PENAFORT DIAS JÚNIOR
  • Reconhecimento de Formas Farmacêuticas Sólidas para Auxiliar Pessoas com Deficiência Visual
  • Orientador : LAURINDO DE SOUSA BRITTO NETO
  • Data: 30/09/2022
  • Mostrar Resumo
  • Neste trabalho de mestrado se deseja auxiliar pessoas com deficiência visual na administração de Formas Farmacêuticas Sólidas (FFS). O seu objetivo principal é desenvolver uma abordagem em visão computacional ao reconhecimento de FFS, compreendendo comprimidos, drágeas e cápsulas, com resultados superiores ou equiparados ao estado da arte em reconhecimento de FFS, e que possa ser utilizada por um sistema wearable. Um sistema wearable munido com tal abordagem, ajudaria uma pessoa com deficiência visual a tomar o medicamento correto, sem ajuda de terceiros, tornando-a mais independente e melhorando a sua qualidade e expectativa de vida. Isso evitaria que a pessoa com deficiência visual tomasse algum medicamento errado, o que poderia causar prejuízos à saúde dela. Para alcançar esse objetivo foi realizada uma revisão sistemática da literatura para definir e analisar o estado da arte sobre o tema. Foram verificados diversos trabalhos relacionados ao tema, o que proporcionou um acervo bastante consistente para o desenvolvimento da abordagem proposta. O conjunto de dados da National Library of Medicine (NLM) foi utilizado como fonte de dados, possibilitando o desenvolvimento desta pesquisa. Foram desenvolvidas duas abordagens utilizando classificadores de aprendizado supervisionado e redes neurais convolucionais (CNNs) para transferência de aprendizado. A abordagem que utilizou a própria CNN EfficientNetB7 como classificador, juntamente com o uso da técnica de aumento de dados, obteve os melhores resultados no reconhecimento de FFS, com taxas de acurácia maiores que 92%. Além disso, essa abordagem demonstrou robustez perante a quatro cenários metodológicos diferentes, chegando, em um desses cenários, à uma taxa de de acurácia média superior a 98%.

  • VITOR MENESES DE VASCONCELOS
  • LoRaWAN Expandido com a Implementação da Topologia Cluster-Tree Escalonada e do Mecanismo de Acesso ao Meio CSMA/CA para RSSFs de Larga Escala
  • Orientador : ERICO MENESES LEAO
  • Data: 31/08/2022
  • Mostrar Resumo
  • A tecnologia de modulação de rádio LoRa vem sendo empregada para alavancar a comunicação
    de longas distâncias em Redes de Sensores sem Fio (RSSFs), viabilizando que as Low
    Power Wide Area Networks (LPWANs) sejam empregadas em aplicações de monitoramento
    da Internet das Coisas (IoT). Redes baseadas na modulação de rádio Long-Range (LoRa),
    usualmente implementam o protocolo LoRaWAN como a camada de acesso ao meio (MAC),
    apesar deste protocolo possuir certas limitações, como por exemplo, o suporte apenas à
    topologia de rede estrela. Nesta topologia, o alcance das transmissões está restrito a um
    único salto e, portanto, os dispositivos não contam com retransmissões ao longo da rede
    para tentar alavancar sua área de cobertura e, também, contornar atenuações de sinal com
    a distância, presença de obstáculos, ou com interferências de outras fontes de rádio. Diante
    destas circunstâncias e para buscar expandir o alcance das transmissões em uma topologia
    estrela, rádios LoRa contêm os parâmetros bandwidth (BW), spreading factor (SF) e coding
    rate (CR), que podem ser customizados para esta expansão de alcance, apesar de estes
    ajustes por si só, ocorrem às custas de um maior consumo energético e de uma maior
    probabilidade de colisão de pacotes, devido ao aumento no tempo em que os rádios dos
    dispositivos necessitam permanecerem ligados para concluir uma transmissão nestas novas
    configurações de parâmetros. Outra limitação conhecida em redes LoRaWAN que afeta
    sua performance, seu consumo energético, bem como a sua adequabilidade para o uso
    em extensas RSSF de larga escala, é a existência do protocolo de acesso ao meio do tipo
    ALOHA, que não provê controles, verificação do canal ou sincronismos para as transmissões.
    Em redes com muitos dispositivos, este protocolo tende a maiores probabilidades de colisão
    de pacotes e, consequentemente, gera retransmissões e gastos energéticos que poderiam
    ser evitados caso fosse adotado um mecanismo de acesso ao meio mais adequado para
    RSSF de larga escala. Diante das limitações expostas e, para que o protocolo LoRaWAN
    possa ser melhor utilizado em RSSFs de larga escala, propõe-se a implementação de uma
    topologia que possa ampliar a cobertura da rede, bem como utilizar um mecanismo de
    acesso ao meio que melhor atenda aos recursos limitados de dispositivos LoRaWAN. Este
    trabalho de Mestrado propõe o desenvolvimento de uma RSSF de larga escala LoRaWAN
    multi-saltos, baseada na topologia cluster-tree, que visa expandir a cobertura espacial,
    sincronizar clusters e dispositivos, permitir a escalabilidade da rede, bem como buscar
    evitar colisões, melhorar métricas de comunicação e reduzir o consumo energético, com a
    utilização do novo mecanismo de acesso ao meio CSMA/CA. Como produto deste trabalho,
    entrega-se uma avaliação de desempenho por simulação desta rede, aplicada à diferentes
    cenários de RSSFs de larga escala, a fim de atestar os melhoramentos propostos.

  • JOSÉ NAZARENO ALVES RODRIGUES
  • Uma Proposta para Auxílio no Pré-Diagnóstico do TEA Através da Classificação de Imagens Faciais Bidimensionais Estáticas Utilizando Deep Learning
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 31/08/2022
  • Mostrar Resumo
  • O número de pessoas com transtorno do espectro autista (TEA) vem aumentando significativamente. Em decorrência disso, somado a fatores socioeconômicos, o acesso ao tratamento precoce tem se tornado restrito, reduzindo os potenciais ganhos advindos dessa intervenção e aumentando os gastos familiares e sociais em decorrência de intervenções tardias. Alternativas viáveis para contornar problemas relacionados ao TEA nesse contexto, podem residir em soluções computacionais móveis pelo seu caráter acessível. Em observância a isso, este trabalho propõe uma solução para auxílio ao pré-diagnóstico do TEA de forma não invasiva e de baixo custo. Para tanto, apoia-se em técnicas e conceitos de aprendizado de máquina (AM), mais especificamente de aprendizado profundo, para a geração de modelos que possam apoiar a implementação de soluções computacionais móveis. Assim, foram avaliadas neste trabalho, 5 arquiteturas de redes neurais convolucionais (CNN) no treinamento de modelos para classificação binária do TEA, utilizando como entrada imagens bidimensionais estáticas. Trabalhos semelhantes analisados na literatura utilizam tipos de imagens que inviabilizam sua utilização massiva em decorrência da necessidade de equipamentos específicos e nem sempre acessíveis, além de invasivos, comprometendo a espontaneidade nos resultados. Destarte, há poucos sistemas de diagnóstico do autismo desenvolvidos que possam de fato ser usados na prática. Dentre as 5 arquiteturas CNNs utilizadas, destacaram-se a MobileNet e a DenseNet201. Os resultados obtidos a partir delas nestas avaliações preliminares, atingiram, nos melhores casos, a média de 90,7 % de acurácia com cada uma dessas 2 arquiteturas, e desvio padrão de 0,68 % e 1,64 %, respectivamente. Resultados de execuções individuais chegaram nos melhores casos a 93,5 % de acurácia com a DenseNet201. Em experimentos complementares, com participantes diagnosticados com TEA, realizados com o apoio de um estabelecimento de saúde, a ResNet50V2 atingiu em execuções individuais o melhor resultado (83,3 %). Outro ponto em aberto na literatura que o presente trabalho busca avaliar é o tamanho dos modelos gerados. Essa questão ganha relevância no contexto dos dispositivos embarcados ou móveis, uma vez que estes dispositivos possuem maiores limitações em termos de hardware.

  • NATANAEL RIBEIRO DA SILVA
  • Um Mecanismo de Controle de Congestionamento Local Disparado por Eventos Através de Compactação de Dados para RSSFs Cluster-Tree baseadas no Padrão IEEE 802.15.4
  • Orientador : ERICO MENESES LEAO
  • Data: 31/08/2022
  • Mostrar Resumo
  • A Internet das Coisas (IoT - Internet of Things) é uma inovação tecnológica que tem se tornado bastante atrativa no âmbito comercial, industrial e residencial. Por conta disso, houve uma crescente aplicação principalmente nos negócios, com o desenvolvimento de mecanismos de comunicação eficientes e desenvolvimento de aplicações em Redes de Sensores Sem Fio (RSSF). A essa grande aplicabilidade torna-se necessária uma avaliação de benefícios, estratégias e dificuldades enfrentadas na aplicação dessa tecnologia. O conjunto de normas IEEE 802.15.4 e ZigBee forma uma pilha adequada de protocolos para implantação de RSSFs, oferecendo interoperabilidade, mobilidade e autonomia entre dispositivos. Essas normas, que suportam as topologias estrela e peer-to-peer, operam sob baixo consumo energético, baixo custo, armazenamento reduzido e baixas taxas de comunicação. Estas normas especificam uma topologia especial peer-to-peer chamada cluster-tree, na qual permite a sincronização de nós e é apontada como uma das topologias mais apropriadas para implantação em ambientes de larga escala. Nesse contexto, a ocorrência de congestionamentos (acentuados pelas limitações dos dispositivos quanto a transmissão de dados) evidencia-se um dos maiores desafios de RSSFs cluster-tree de larga escala. Diante disso, torna-se necessário criar mecanismos eficientes para mitigar os elevados atrasos de comunicação fim-a-fim e as possíveis perdas de pacotes que são comuns num ambiente congestionado, sem comprometer a integridade dos dados. Este trabalho de mestrado propõe a utilização de um mecanismo de compactação local eficiente como forma de evitar ou postergar congestionamentos para redes de sensores sem fio cluster-tree de larga escala baseadas nas normas IEEE 802.15.4/ZigBee. Partindo do pressuposto de uma arquitetura de RSSF cluster-tree já implantada, este trabalho implementa um mecanismo eficiente que possa compactar os dados transmitidos pelos nós sensores evitando ou postergando um possível congestionamento da rede. A ideia subjacente é a implementação de um sistema dinâmico orientado a eventos, que aciona o mecanismo de compressão a fim de reduzir a quantidade de dados a serem transmitidos, e dessa forma, fornecer qualidade de serviço para o típico fluxo de monitoramento, reduzindo congestionamentos, atrasos de comunicação fim-a-fim e perdas de pacotes. Como resultados, este trabalho pretende contribuir com o estado da arte de RSSFs cluster-tree e faz uma avaliação de desempenho por simulação, aplicados a diferentes cenários de RSSFs utilizando diversas métricas de rede, mostrando a eficiência do mecanismo proposto.

  • VALNEY DA GAMA COSTA
  • Descoberta de Risco em Licitações baseado em Técnicas de Aprendizagem de Máquina: uma Análise sobre os Dados do Tribunal de Contas do Estado do Piauí
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 31/08/2022
  • Mostrar Resumo
  • A licitação é o processo administrativo em que um órgão público oferta às empresas interessadas a oportunidade de efetuarem propostas para a realização de serviços ou compra de um ou mais produtos para este ente e escolhe dentre elas a que melhor supre o que é pedido, respeitando critérios definidos em lei. O Tribunal de Contas do Estado do Piauí é um dos órgãos públicos de controle externo, responsável pela fiscalização contábil, financeira e orçamentária de outros órgãos e entidades do estado do Piauí. Os auditores do TCE/PI têm dificuldade em examinar todos os procedimentos licitatórios publicados antes da efetivação e gasto financeiro dos envolvidos. Este trabalho tem como objetivo descobrir antecipadamente ou durante a execução dos procedimentos licitatórios, um rótulo de risco que facilite sua fiscalização. Portanto pretende-se definir a criação de um modelo de decisão baseada em aprendizagem de máquina em conjunto com técnicas de processamento de linguagem natural, para tratamento de atributos textuais e descritivos, aplicado aos procedimentos licitatórios publicados no Tribunal de Contas do Estado do Piauí, melhorando as técnicas de fiscalizações dos Tribunais de Contas a partir de dados públicos das próprias licitações publicadas no órgão, e informações de análises anteriores de auditores. Os modelos desenvolvidos utilizaram os algoritmos J48, RandomForest e Redes Neurais Multicamadas (MLP) e obtiveram acurácias médias até 81%, com destaque ao algoritmo de RandomForest, responsável por obter acurácia máxima de 82%.

  • WELLINGTON PACHECO SILVA
  • Sentinela: Metodologia de Acompanhamento e Controle de Avaliação de Aprendizado em Plataforma de Ensino Virtual
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 30/08/2022
  • Mostrar Resumo
  • Nos últimos anos, os exames online têm sido amplamente utilizados para avaliar o desempe- nho dos alunos, especialmente durante a pandemia Covid-19. As novas tecnologias digitais possibilitaram a ampliação do leque de formas de ensino e aprendizagem a distância. No entanto, devido à falta de interação face a face, o monitoramento do exame online se tornou um desafio. Neste contexto, o presente trabalho apresenta uma proposta de monitoramento digital de aplicação de exame online através da fiscalização da janela ativa do navegador. Somado a isso, são realizadas capturas de fotos dos participantes por meio da webcam para processamento e classificação dessas imagens por meio de Rede Neural Convolucional, chegando a uma análise da posição do olhar (dentro ou fora da tela). Os resultados sugerem que o avaliador terá condições de, a partir das informações repassadas pela ferramenta, inferir se houve alguma prática ilícita durante o processo de avaliação.

  • JAMES DA LUZ DIAS
  • O impacto da luminosidade na detecção da região de interesse usando rastreamento ocular
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 30/08/2022
  • Mostrar Resumo
  • O rastreamento ocular é um procedimento que busca identificar para onde uma pessoa está olhando, como também analisar processos cognitivos. Com a evolução dos estudos sobre rastreamento ocular, surgiu o rastreamento ocular por vídeo, método não intrusivo e que requer tão somente de um dispositivo (computador, tablet, smartphone etc) com uma câmera e um software para a execução do rastreamento. Esse tipo de rastreamento não faz uso de led infravermelho (IR) e por isso necessita de uma luminosidade adequada no ambiente para estimar o movimento do olhar com precisão. De posse de uma metodologia de detecção da região de interesse usando rastreamento ocular e diante da carência de luminosidade, motivou-se em estudar as possibilidades de mitigar tal problema. A primeira investida em busca de um solução se deu em fazer uso de técnicas de processamento e aprimoramento das imagens obtidas em ambiente com pouca luminosidade, poŕem os resultados revelaram ser desvantajoso a realização do tratamento das imagens. Em seguida, em uma nova intervenção verificou-se a influência do nível de luminosidade com um luxímetro no momento da captura das imagens. Já com essa segunda intervenção, os resultados apontaram o fator luminosidade como um ponto crucial para o rastreamento ocular eficiente.

  • FILIPE SOARES VIANA
  • Avaliação de Classificadores para Predição de Evasão no Ensino Superior Utilizando Janela Semestral
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 29/08/2022
  • Mostrar Resumo
  • A evasão estudantil nas universidades vem se apresentando como um problema recorrente
    e preocupante no mundo ao longo dos anos. Essa situação se torna algo ainda mais
    alarmante no Brasil em suas universidades públicas com orçamento oriundo dos cofres da
    nação, problema esse não limitado ao prejuízo financeiro, mas também social e acadêmico.
    Diminuir a evasão se torna uma ação importante nas universidades, sendo de grande
    ajuda um mecanismo para classificar alunos ativos na sua predisposição para evadir. Esse
    trabalho se propõe a classificar e prever um discente ativo como “Evadido” ou "Formado",
    podendo assim os interessados redirecionarem esforços para evitar que o discente evada.
    Serão utilizados 4 estudos de casos: o primeiro utilizando dados do curso de Ciência da
    Computação da Universidade Federal do Piauí (UFPI); o segundo com os discentes do
    curso de Sistemas de Informação e o terceiro caso com a analise ocorrendo com a os dois
    cursos anteriores. A metodologia abordada segue os conceitos de Knowledge Discovery in
    Databases (KDD) como guia na obtenção de um modelo preditivo e de conhecimentos no
    processo. O KDD descreve o processo de coleta dos dados, pré-processamento e, por fim, a
    mineração dos dados utilizando algoritmos de aprendizagem de máquina. São utilizados
    7 algoritmos muito utilizados na literatura, comparando-os do decorrer das análise. O
    modelo treinado é validado com métricas importantes como Accuracy, Recall, Precision,
    F1 Score, Índice Kappa e curva ROC.

  • WESLEY GERALDO DE OLIVEIRA DA NÓBREGA
  • Estudo e Análise de Desempenho do Protocolo LoRaWAN para o Monitoramento Remoto de Doenças Crônicas
  • Orientador : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: 26/08/2022
  • Mostrar Resumo
  • Segundo a Organização Mundial de Saúde (OMS), as doenças crônicas não transmissíveis matam 7 em cada 10 pessoas em todo mundo. O monitoramento e tratamento dessas doenças requer o deslocamento frequente dos pacientes aos hospitais e centros de saúde, muitas vezes bem distantes de suas residências, causando aumento nas suas despesas financeiras, dos sistemas de saúde governamentais, planos de saúde, dentre outros. Dentre essas doenças crônicas monitoráveis as cardíacas são a maior causa de mortes e invalidez dos últimos 20 anos, havendo claramente a necessidade de ações focadas na prevenção e no tratamento. Neste contexto, os avanços nos sensores vestíveis e nos protocolos de comunicação contribuem de forma direta no apoio à saúde. Movido por essa demanda, o presente trabalho tem como objetivo estudar e analisar a performance de um sistema que utiliza componentes de Internet das Coisas (Internet of Things - IoT) para o monitoramento remoto de doenças crônicas, em especial doenças cardiovasculares, com coleta e processamento de dados de eletrocardiograma (ECG). Utilizou-se para transmissão desses dados a tecnologia Long-Range (LoRa) sob o protocolo LoRaWAN. Nesse estudo foram observados os dados lidos pelos sensores, tratados de forma a serem transmitidos para os gateways de maneira correta levando-se em consideração parâmetros como distância entre nós (sensores) e o gateway, relevo do ambiente e fatores de espalhamento (SF). Como figuras de mérito, verificou-se os parâmetros de rede como o indicador de força do sinal recebido (RSSI), latência e relação sinal-ruído (SNR) em cenários reais com características urbanas (domésticas e hospitalares) e rurais e analisou-se o comportamento nestes cenários. Com a utilização desses dados fornecidos pela rede, foi idealizado e implementado um sistema de Inferência Fuzzy com o objetivo de otimizar o consumo de bateria do sistema. Os resultados obtidos mostraram que cada cenário tem suas particularidades e no caso dos testes feitos em ambiente urbano/doméstico os SF7 e SF8 se comportaram melhor em distâncias de até 30 metros com obstáculos. Já em ambiente urbano/hospitalar o melhor resultado foi com SF10, alcançando até 120 metros, com obstáculos, realizando a coleta de pacotes de rede. No cenário rural, utilizou-se o SF12, com alcance de transmissão de até 400 metros. A contribuição do estudo vai da abordagem direta e medições feitas em diferentes ambientes urbano e rural, bem como a automatização dos tempos de coleta de dados e transmissão via rede de acordo com o sistema Fuzzy proposto e modelado, aumentando o tempo de vida útil da bateria, tornando assim um processo mais dinâmico e independente da interferência humana.

  • CRISTIANO NERI DA SILVA
  • Estudo e Análise de Estratégias de Posicionamento de Gateway LoRa e Quantificação de QoS em Função das Características de Configuração LoRaWAN
  • Orientador : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: 25/08/2022
  • Mostrar Resumo
  • As redes de longa distância de baixa potência (LPWAN) são tecnologias que ganharam interesse na pesquisa e comunidade industrial para dispositivos e aplicações de Internet das Coisas (IoT) assim como o protocolo LoRa Wide Area Network (LoRaWAN) que permite a implementação de aplicações de redes de longo alcance e baixa potência para a IoT. Seu esquema de modulação, Long Range (LoRa), utiliza diversos parâmetros de transmissão como Spreading Factor (SF), Payload Size (PS), Bandwidth (BW) e Coding Rate (CR) permitindo uma comunicação bidirecional, possibilitando ao LoRaWAN o uso de algoritmo adaptativo, o Adaptive Data Rate (ADR), para atribuir esses parâmetros dinamicamente explorando as vantagens do LoRa. No entanto, o sistema de controle ADR não ajusta os parâmetros considerando a evolução da Qualidade de Serviço (QoS) das aplicações, sendo o planejamento da rede e a otimização considerados problemas significativos impactando no desempenho e nos custos das despesas de capital (CAPEX) e operacionais (OPEX). Nesse contexto, este trabalho propõe determinar a quantidade de diferentes QoS analisando as características do conjunto de configurações LoRaWAN através da combinação dos métodos gap statistic com algoritmo Fuzzy C-Means (FCM) e elbow com K-means. Adicionalmente, realizou-se agrupamento com FCM baseado nas métricas Bit Error Rate (BER), Received Signal Strenght Indicator (RSSI) e Time on Air (ToA) e desenvolver um estudo comparativo de estratégias de posicionamento de gateways (GW) que usam os algoritmos FCM, Gustafson-Kessel (GK) e K-means; adicionando uma estratégia que segmenta o cenário em grades de 2km, posicionando o GW no centro, e outra que dispõe os GWs aleatoriamente, avaliando as métricas RSSI, Signal to Noise Ratio (SNR), delay e distância, possibilitando uma redução do número de GW e dos custos CAPEX e OPEX como também estabelecer o desempenho das estratégias para as métricas. Nos resultados determinaram agrupamentos adequados conforme os diferentes tipos de QoS baseado na combinação dos métodos, enquanto o FCM permitiu agrupar as aplicações com QoS similares. O estudo comparativo mostrou uma redução da quantidade de GW e dos custos CAPEX e OPEX com aproximadamente a mesma proporção de entrega em relação ao Grid25; as estratégias FCM e GK obtiveram desempenho superior, a partir de 22 GW, para as métricas RSSI e SNR em relação ao Kmeans, já a FCM e Kmeans apresentaram menores distâncias e delay comparado ao GK a partir de 18 GW.

  • JÊZIEL COSTA MARINHO
  • Avaliação Automática de Redações: Uma abordagem baseada nas competências do ENEM
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 25/08/2022
  • Mostrar Resumo
  • A Avaliação Automática de Redações (AAR), por meio de técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM), busca avaliar e pontuar textos em prosa escrita. No Brasil, o Exame Nacional do Ensino Médio (ENEM) contém, atualmente, a maior prova de redação do país na qual exige-se a produção de um texto em prosa, do tipo dissertativo-argumentativo, cujo o processo de correção levar em consideração 5 competências estabelecidas pela matriz de referência da redação do ENEM. Esta pesquisa objetivou investigar e propor estratégias para AAR escritas na língua portuguesa por meio de uma abordagem baseada na criação e revisão de um corpus anotado de redações do ENEM criado a partir da extração automatizada de redações da internet, bem como na definição de conjuntos de features específicas para cada competência e o desenvolvimento de modelos de AAR baseados em métodos de engenharia de features, Embeddings Doc2Vec e Redes Neurais Recorrentes LSTM para predizer a nota de uma redação para cada uma das 5 competência. Os resultados obtidos demonstraram que os modelos baseados em engenharia de fatures obtiveram os melhores resultados paras competências 1 e 2 com nível de concordância moderado, já para as com competências 3, 4 e 5, o modelo baseado em RNN do tipo LSTM obtiveram um melhor desempenho com o nível de concordância também moderado. Os resultados obtidos foram validados por meio de uma ferramenta web de AAR desenvolvida com os modelos de AAR que obtiveram os melhores resultados nesta pesquisa. Com esta ferramenta, alunos do ensino médio puderam ter suas redações avaliadas pelos modelos de AAR e um avaliador humano. A concordância entre as notas do avaliador humano e dos modelos de AAR alcançaram um nível moderado para as 5 competências e bom para a nota final. Apesar de mais estudos serem necessários, os resultados obtidos demonstraram que a abordagem adotada nesta pesquisa tem potencial para ser usada para a avaliação automática de redações escritas em português em larga escala.

  • JÊZIEL COSTA MARINHO
  • Avaliação Automática de Redações: Uma abordagem baseada nas competências do ENEM
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 25/08/2022
  • Mostrar Resumo
  • A Avaliação Automática de Redações (AAR), por meio de técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM), busca avaliar e pontuar textos em prosa escrita. No Brasil, o Exame Nacional do Ensino Médio (ENEM) contém, atualmente, a maior prova de redação do país na qual exige-se a produção de um texto em prosa, do tipo dissertativo-argumentativo, cujo o processo de correção levar em consideração 5 competências estabelecidas pela matriz de referência da redação do ENEM. Esta pesquisa objetivou investigar e propor estratégias para AAR escritas na língua portuguesa por meio de uma abordagem baseada na criação e revisão de um corpus anotado de redações do ENEM criado a partir da extração automatizada de redações da internet, bem como na definição de conjuntos de features específicas para cada competência e o desenvolvimento de modelos de AAR baseados em métodos de engenharia de features, Embeddings Doc2Vec e Redes Neurais Recorrentes LSTM para predizer a nota de uma redação para cada uma das 5 competência. Os resultados obtidos demonstraram que os modelos baseados em engenharia de fatures obtiveram os melhores resultados paras competências 1 e 2 com nível de concordância moderado, já para as com competências 3, 4 e 5, o modelo baseado em RNN do tipo LSTM obtiveram um melhor desempenho com o nível de concordância também moderado. Os resultados obtidos foram validados por meio de uma ferramenta web de AAR desenvolvida com os modelos de AAR que obtiveram os melhores resultados nesta pesquisa. Com esta ferramenta, alunos do ensino médio puderam ter suas redações avaliadas pelos modelos de AAR e um avaliador humano. A concordância entre as notas do avaliador humano e dos modelos de AAR alcançaram um nível moderado para as 5 competências e bom para a nota final. Apesar de mais estudos serem necessários, os resultados obtidos demonstraram que a abordagem adotada nesta pesquisa tem potencial para ser usada para a avaliação automática de redações escritas em português em larga escala.

  • RAFAEL MORAIS DA CUNHA
  • Uma proposta de solução tecnológica de baixo custo para rastreamento ocular
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 19/08/2022
  • Mostrar Resumo
  • Os olhos fornecem informações sobre interesse, humor, atenção, sono, habilidades cognitivas, sociais, etc. A tecnologia de eye tracking possibilita o rastreamento e o registro do olhar dos usuários sobre estímulos visuais em diferentes ambientes digitais e analógicos. Essa tecnologia ainda enfrenta o fator preço como um grande impeditivo para sua ampla adoção. Mesmo as soluções open-source ainda apresentam valores, para muitos segmentos, impraticáveis. Este trabalho apresenta um sistema de rastreamento ocular embarcado em óculos utilizando componentes de baixo custo para utilização em ambiente real de sala de aula. Os experimentos para atestar a acurácia do sistema foram realizados em ambiente fechado com iluminação controlada e posicionando o usuário a diferentes distâncias dos objetos. Resultados indicaram uma taxa de acerto da solução acima de 96% para estímulos visuais de dimensões aproximadas de 50x50 cm, e erro angular médio abaixo de 1°, estando o usuário a mais de 2 m de distância do estímulo visual. A fim de atestar a aplicabilidade do sistema proposto, os óculos foram utilizados em ambiente real de sala de aula por estudantes do ensino médio. O objetivo do experimento foi comparar o comportamento ocular de estudantes do ensino presencial com o ensino online. Observou-se que os 2 grupos apresentaram um comportamento similar, com maior concentração do olhar no rosto do professor. Porém essa concentração não foi a mesma: no ensino presencial o professor recebeu 30,52% do total de fixações, enquanto que no ensino \textit{online} o percentual foi de 23,40%.

  • MAURA GÉSSICA RODRIGUES DA ROCHA
  • Detecção e identificação de parasitas da malária usando detectores de objetos baseados em redes neurais profundas: uma ampla análise comparativa
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 18/05/2022
  • Mostrar Resumo
  • A malária é uma doença infecciosa transmitida pela picada da fêmea do mosquito Anopheles,

    infectada por Plasmodium, disseminada em regiões tropicais e subtropicais do planeta. O

    diagnóstico precoce e o tratamento imediato e eficaz são necessários para evitar alguns

    problemas, tais como: anemia, falência de órgãos e mortes. A microscopia manual é a

    principal técnica usada para o diagnóstico da malária. Porém, esse exame é trabalhoso e

    requer profissionais qualificados. A fim diminuir essas dificuldades, pesquisadores estão

    utilizando conceitos de aprendizagem de máquina para detectar e identificar células

    infectadas pelo parasita Plasmodium. Este trabalho apresenta um estudo comparativo de

    quatro versões recentes da rede neural convolucional You Only Look Once (YOLO), são elas:

    YOLOv3 PyTorch, YOLOv4, Scaled-YOLOv4 e YOLOv5; e as redes Single Shot MultiBox

    Detector (SSD), EfficientDet e Faster R-CNN para a detecção e classificação do parasita

    da malária em seis cenários diferentes. Foram utilizados quatro conjuntos de imagens

    públicas para os testes, MP-IDB, B, BBBC041v1 e IML-Malaria, com 210, 1.182, 1.328 e

    345 imagens, respectivamente. O modelo YOLOv5 superou os outros modelos avaliados.

    Nos testes com o modelo YOLOv5, os seis cenários apresentaram os seguintes resultados:

    detecção e classificação de P. falciparum com mAP (90,03%); diferenciar espécies de

    P. falciparum e P. vivax o modelo alcançou mAP (92,76%); diferenciar células sanguíneas

    saudáveis e infectadas mAP (92,46%); diferenciar as quatro espécies de parasitas da

    malária: P. falciparum, P. malaria, P. ovale e P. vivax obteve mAP (85,76%); diferenciar

    as fases de vida do parasita com mAP (82,80%) e diferenciar leucócito vs. hemácia vs. anel

    vs. gametócito vs. esquizonte vs. trofozoíto com mAP (63,30%). Seus resultados tiveram

    desempenho semelhante aos trabalhos do estado da arte, demonstrando a viabilidade

    e eficácia do YOLOv5 para detectar e identificar parasitas da malária em imagens de

    esfregaço de sangue fino com alta precisão e sensibilidade.

  • LAIARA CRISTINA DA SILVA
  • Um descritor híbrido de dados clínicos com textura ou deep features para classificação de patologias renais
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 26/04/2022
  • Mostrar Resumo
  • A importância da função glomerular na fisiologia renal e o fato de suas lesões afetarem outros segmentos do néfron caracterizam as enfermidades glomerulares, como um dos principais problemas em Nefrologia nos dias de hoje. No Brasil, as glomerulopatias são uma das causas mais comuns de falência renal e responsáveis por cerca de 27% dos transplantes. Desta forma, encontrar e classificar lesões glomerulares são etapas fundamentais para o diagnóstico de muitas doenças renais e que contam com a experiência de um nefropatologista. Além disso, muitos fatores como fadiga e trabalho repetitivo inerentes à profissão podem conduzir a um diagnóstico errado. Por outro lado a Aprendizagem de Máquina se apresenta como importante ferramenta devido à sua capacidade de simular o conhecimento de um especialista a partir de experiências passadas, por isso, vêm sendo utilizada com sucesso na resolução de muitos problemas complexos. Tendo isso em vista, este trabalho realiza um estudo comparativo entre os algoritmos de Aprendizagem de Máquina Árvore de Decisão, SVM, Random Forest e MLP a fim de propor um modelo de classificador que auxilie o profissional especialista na definição de um diagnóstico de patologia renal. Concomitante ao estudo comparativo entre os classificadores, este trabalho também analisa 6 descritores de textura das imagens, cuja combinação de 1 ou mais desses descritores será adicionada aos dados clínicos correspondentes à cada imagem e juntos servirão como entrada de um classificador. Além disso, outro conjunto híbrido de dados clínicos com deep features foram testados, ao todo foram testadas 5 redes pré-treinadas. Os melhores resultados que obtivemos foi quando concatenamos os recursos de DC e HOG, que resultou em um excelente índice Kappa e acurácia de 98,46% e quando concatenamos DC e MobileNet, obtivemos índice Kappa excelente e acurácia de 95,38%.

  • FRANCISCO DAS CHAGAS TORRES DOS SANTOS
  • DFU-VGG uma nova e aprimorada rede VGG-19 para classificação de úlceras do pé diabético
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 20/04/2022
  • Mostrar Resumo
  • Uma complicação causada pelo diabetes mellitus é o aparecimento de feridas situadas na região dos pés denominadas Úlceras do Pé Diabético. O tratamento tardio ou inadequado pode acarretar o surgimento de infecção ou isquemia da úlcera que, em estado avançado, pode ocasionar a amputação dos membros inferiores. Neste trabalho, foi realizado um comparativo do desempenho das arquiteturas VGG-16, VGG-19, InceptionV3, ResNet50, InceptionResNetV2, DenseNet201, MobileNetV2 e EfficientNetB0 na classificação de imagens de Úlceras do Pé Diabético de duas bases de dados públicas com um total de 8.250 imagens. Para estas redes, foi aplicado um refinamento profundo com e sem alterações nas camadas finais (totalmente conectadas). Além disso, as redes VGG-16 e VGG-19 sofreram alterações na arquitetura interna, sendo adicionadas  camadas de dropout e batch normalization. A avaliação proposta levou em consideração quatro classes: inexistente (que contém imagens de pele saudável, úlceras em processo de cicatrização e de úlceras sem isquemia ou infecção), isquemia, infecção e ambas (úlceras com isquemia e infecção). As melhores configuração das redes testadas foram as VGG-16 e VGG-19 com uma camada densa de 512 neurônios e com camadas de batch normalization, que obtiveram índice Kappa acima dos 89,00% e uma acurácia média de 93,44% e 93,45%, respectivamente. Os resultados alcançados demonstram que a proposta consegue classificar corretamente as imagens, visto que, nos testes realizados o índice Kappa atingiu valores considerados “Excelentes”.

  • MARINA DOS REIS BARROS ALENCAR
  • Rotulação Automática de Grupos Através do Uso de Filtros de Ganho de Informação de Atributos
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 12/04/2022
  • Mostrar Resumo
  • Identificar semelhanças nos dados que não foram rotulados, classificados ou categorizados é uma das funções do aprendizado não supervisionado. O agrupamento (do inglês clustering) é uma técnica que permite dividir automaticamente o conjunto de dados de acordo com uma similaridade. A grande vantagem do uso das técnicas de agrupamento é que, ao agrupar dados similares, pode-se descrever de forma mais eficiente e eficaz as características peculiares de cada um dos grupos identificados. Dessa forma, este trabalho tem como objetivo a interpretação desses grupos através de rótulos. O rótulo é um conjunto de valores relevantes que representam uma definição para um grupo. Esta abordagem utilizou técnicas com aprendizagem de máquina não supervisionada, aplicação dos filtros de ganho de informação através da seleção de atributos e um modelo de discretização. Na metodologia proposta foi aplicado o algoritmo não supervisionado para formação dos grupos e diferentes filtros de seleção de atributos para expor a relevância dos atributos e comparar o funcionamento deles. Também, para contribuir no processo de rotulação foi utilizado um método de discretização auxiliando no cálculo da variação de valores dos dados. O modelo proposto foi aplicado na rotulação das bases de dados disponíveis no repositório UCI, sendo elas, Íris, Seeds, Wine e Glass. Obtendo-se uma taxa de acerto média de 83.66% com desvio padrão médio de 4.98.

  • KANNYA LEAL ARAÚJO
  • Distribuição de Relatórios de Bugs para Desenvolvedores de Software Usando um Método Evolutivo Multipopulacional
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 25/02/2022
  • Mostrar Resumo
  • A complexidade de um software aumenta à medida em que seu tamanho, também, aumenta. Esse aumento pode refletir um crescimento na quantidade de bugs ou falhas, tornando o processo manual de atribuição de bugs mais complexo, demorado e sujeito a erros. Técnicas existentes, de automatização desse processo, atribuem relatórios de bugs usando somente dados dos relatórios corrigidos anteriormente. Isso pode resultar em atribuições a desenvolvedores inativos. Adicionalmente, uma parcela significativa das atribuições normalmente não considera a carga de trabalho dos desenvolvedores, podendo sobrecarregar alguns e tornar o processo de correção mais demorado. Este trabalho propõe uma abordagem para distribuição de relatórios de bug que combina a experiência e as atividades recentes dos desenvolvedores, bem como, sua carga de trabalho. Quando um novo relatório é recebido, estima-se o esforço para corrigir o bug a partir de bugs semelhantes e calcula-se a afinidade de cada desenvolvedor com o arquivo que contém o erro utilizando um sistema de Inferência Fuzzy. Posteriormente, é utilizado a meta-heurística Golden Ball para atribuir esses relatórios aos desenvolvedores de acordo com a afinidade e carga de trabalho. Resultados experimentais mostram que os melhores resultados da abordagem proposta atingem valores ideais para alocação de 7, 8 e 10 relatórios e no pior caso (9 relatórios) chega a 99,94% do valor ideal, quando comparados com um algoritmo de força bruta. A abordagem, também,  obteve médias significativamente melhores em 92,30% das instâncias quando comparado ao um Algoritmo Genético e 84,61% quando comparado com um Algoritmo Genético Distribuído, sendo que em apenas 23,07% dos casos não houve uma diferença significativa entre as técnicas.

  • ENZA RAFAELA DE SAMPAIO FERREIRA
  • Otimização por Enxame de Partículas e Fluxo de Carga Continuado para Leilões de Energia Elétrica com Restrição de Estabilidade de Tensão
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 23/02/2022
  • Mostrar Resumo
  • Diante das mudanças ocasionadas nos mercados competitivos de eletricidade, várias estruturas de mercados foram propostas para promover concorrência com vistas a se obter energia elétrica, e uma delas foram os mercados de leilão de compra/venda de energia. Os leilões de energia referem-se aos negócios realizados para contratar energia, porém a implantação de novas linhas de transmissão e a realização dessas transações exigem a definição de regras sobre tarifas, segurança e qualidade dos serviços entre os agentes envolvidos, desde preços acessíveis aos consumidores como clareza nas negociações entre geradoras e concessionárias. Portanto, este trabalho propõe um modelo de fluxo
    de potência ótimo com restrição de estabilidade/segurança de tensão (VSCOPF) e sua estrutura de resolução. Nesta modelagem, o problema externo é um sistema de leilão de fluxo de potência ótimo com estabilidade/segurança de tensão de período único, cuja restrição de estabilidade de tensão depende dos limites de estabilidade/restrições de segurança determinados pelo problema interno formulado como um problema de máximo carregamento de sistema de potência. A estrutura da solução é baseada na aplicação do algoritmo Particle Swarm Optimization (PSO) para resolução do sistema de leilão,
    além da solução do problema de máximo carregamento pelo Fluxo de Carga Continuado respeitando restrições de magnitudes de tensão e geração de energia reativa e utilizando o método de penalidades. Pretende-se, desta forma, garantir condições mínimas de segurança adequadas ao sistema e preços de energia adequados a todos os participantes. Experimentos com um sistema IEEE de 6 barras e estudos de casos foram realizados para validar a proposta e mostrar a eficácia da aplicação desta abordagem para aquisição de energia no mercado de eletricidade, aplicando o PSO e o Fluxo de Carga Continuado.


2021
Descrição
  • JOSÉ MESSIAS ALVES DA SILVA
  • Avaliação de Desempenho da Tecnologia LoRaWAN voltada para Aplicações IoT Indoor para Smart Campus
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 20/12/2021
  • Mostrar Resumo
  • A evolução da Internet das Coisas (Internet of Things / IoT) tem proporcionado um aumento no desenvolvimento de aplicações que buscam automatizar diversas tarefas e processos do cotidiano humano, em várias áreas e cenários. Essas áreas consistem desde ambientes menores, como casas inteligentes (Smart Homes) até espaços maiores, como os referentes a cidades inteligentes (Smart Cities). Nesse contexto, tem-se os campus inteligentes (Smart Campus), que tipicamente apresentam as mesmas características e problemas de Smart Cities, porém em dimensões menores e mais fáceis de implementar e abordar . Assim, Smart Campus são considerados protótipos para o desenvolvimento de soluções para Smart Cities, e seu estudo tem atraído cada vez mais pesquisadores interessados nos desafios que elas oferecem. Via de regra, as soluções demandam requisitos, que vão desde exigências de usuário final às necessidades relacionadas a tecnologia de comunicação. Diante disso, as tecnologias de comunicação sem fio tem se mostrado uma excelente alternativa, pela praticidade e economia para implantação, entre outras coisas. Dentre as tecnologias de comunicação sem fio, LoRaWAN tem obtido grande aceitação, por sua aderência às demandas de soluções, e dadas as suas características de alcance de comunicação e baixo consumo de energia. Entretanto, LoRaWAN fornece vários fatores e parâmetros de comunicação que devidamente combinados podem atender a diversas aplicações para Smart Campus, conforme os requisitos demandados e evitando que sejam desperdiçados recursos. Nesse contexto, este trabalho realiza uma avaliação de desempenho visando determinar que parâmetros são mais preponderantes para a comunicação, que combinações (modos de configuração) melhor se adequam às características do ambiente de experimentação e buscando-se minimizar o consumo energético. As experimentações ocorreram com 6 dispositivos finais instalados em ambienteindoor, utilizando um single-channel gateway, tendo como cenário de estudo prédios do Centro de Ciências da Natureza/CCN da UFPI. Avaliou-se três modos de configuração com três tamanhos de payload por meio da técnica de Design de Experiments (DOE), e ciclos de transmissão de 1 min, 2,5 min e 10 min. Utilizou-se as métricas SNR, RSSI, Path Loss, PDR, escalabilidade emulada e colisões, além do consumo de energia, para apresentar as melhores opções para o ambiente abordado.

  • CHARLES JOSÉ LIMA DE MIRANDA
  • Uma Análise da Co-Evolução de Teste em Projetos de Software
  • Orientador : GUILHERME AMARAL AVELINO
  • Data: 30/11/2021
  • Mostrar Resumo
  • Os softwares evoluem e essa evolução envolve modificações no código de produção do projeto de software para a realização de alterações de correções ou de melhorias, como correções de \textit{bugs}, melhorias de desempenho ou novas funcionalidades. Essas alterações de código de produção visando a qualidade do software devem ser acompanhadas da co-evolução de outros artefatos, como requisitos, documentação e, principalmente, teste. A realização de teste é uma prática altamente recomendada pela Engenharia de Software e sua presença é um dos fatores que afetam a qualidade do software. Contudo, não existem evidências de que a co-evolução de testes seja uma prática comum em ambiente de desenvolvimentos de software.
    Nesse contexto, este trabalho busca investigar o comportamento da co-evolução de teste em atividades de manutenção e desenvolvimento de software. Diferentemente de trabalhos anteriores, neste trabalho é realizada a análise de repositórios em múltiplas linguagens de programação (JavaScript, Java, Python, PHP e Ruby) e não apenas na linguagem Java, como a maioria. O trabalho também utiliza a distribuição de proporção de teste para classificar os repositórios com co-evolução de teste e realiza a análise da distribuição de atividades corretivas com o objetivo de analisar a influência da co-evolução de teste na manutenção de projetos de software. A abordagem adotada utiliza técnicas de Mineração de Repositório de Software (MRS), como também técnicas de clusterização para analisar a influência da co-evolução em atividades de manutenção em projetos de software. Com os resultados encontrados é possível visualizar o quão comum é a co-evolução de teste dos repositórios e pode-se indentificar quais indicadores de repositórios de software são influenciados de forma positiva pela co-evolução

  • ANTONIO ANDERSON DE MELO ALMEIDA
  • Reconhecimento de Face com Uma Amostra Por Pessoa baseado em Redes Neurais Profundas
  • Orientador : LAURINDO DE SOUSA BRITTO NETO
  • Data: 25/11/2021
  • Mostrar Resumo
  • As abordagens de reconhecimento de face atuais possuem diversos desafios. Entre tais desafios, destaca-se a dificuldade na coleta de amostras de face. Quanto menor a quantidade de amostras de face por pessoa, menor o esforço e o custo para coletá-las, armazená-las e processá-las. Diversas abordagens em reconhecimento facial dependem de um grande conjunto de treinamento. Se nesse conjunto existir apenas uma amostra por pessoa, a grande maioria das abordagens terão grande queda no desempenho, ou até mesmo não conseguirão desempenhar sua função de reconhecimento. Isso é conhecido na literatura como problema Single Sample Per Person (SSPP), que é um grande desafio na Visão Computacional. Tal problema é considerado complexo e desafiador para a maioria dos algoritmos de reconhecimento de face. Diversas abordagens foram desenvolvidas para atacar esse problema. Como há apenas uma amostra a ser treinada, isso torna as variações faciais, como pose, iluminação e disfarce, difíceis de serem previstas. Sendo assim, este trabalho realizou uma revisão sistemática da literatura, em que identificou o estado da arte sobre o tema, mapeou e fez escolhas criteriosas de métodos que foram utilizados para o desenvolvimento do método proposto. Também foram descritas diversas bases de dados, voltadas para a classificação de imagens de face. Por fim, foi proposta uma nova abordagem em reconhecimento de face, atacando o problema SSPP. A abordagem proposta apresentou resultados bastante animadores em comparação com as abordagens do estado da arte, acima de 90% de acurácia, sendo aplicada diversas técnicas como Aumento de Dados em conjunto com a Rede Neural Convolucional (Convolutional Neural Network– CNNs) pré-treinada FaceNet, além de técnicas de ajustes.

  • BRENA MAIA SANTOS
  • Redes de sensores IoT em edifícios inteligentes: uma avaliação de desempenho usando modelos de filas
  • Orientador : FRANCISCO AIRTON PEREIRA DA SILVA
  • Data: 13/10/2021
  • Mostrar Resumo
  • Edifícios inteligentes nas grandes cidades estão hoje equipados com uma infraestrutura de Internet das Coisas (IoT) para permitir o monitoramento constante de diferentes aspectos do dia a dia das pessoas por meio de dispositivos IoT e redes de sensores. O mau funcionamento e a baixa qualidade de serviço (QoS) de tais dispositivos e redes podem causar sérios danos à propriedade e talvez morte de pessoas. Portanto, é de suma importância quantificar diferentes métricas relacionadas ao desempenho operacional dos sistemas que compõem tal arquitetura computacional, mesmo antes da construção do edifício. Estudos anteriores usaram modelos analíticos considerando diferentes aspectos para avaliar o desempenho de sistemas de monitoramento de edifícios. No entanto, alguns pontos críticos ainda faltam na literatura, como (i) analisar a capacidade dos recursos computacionais adequados à demanda de dados, ii) representação do número de núcleos por máquina e iii) o agrupamento de sensores por localização. Este trabalho propõe um modelo de rede de filas para avaliar o desempenho de uma infraestrutura de edifício inteligente associada a múltiplas camadas de processamento: borda e névoa. Uma análise de sensibilidade abrangente do modelo foi realizada usando o método Design of Experiments (DoE) para identificar gargalos na proposta. Uma série de estudos de caso foi realizada com base nos resultados do DoE. Os resultados do DoE permitiram concluir, por exemplo, que o número de nós pode ter mais impacto no tempo de resposta do que o número de núcleos desses nós. As análises numéricas permitem observar o comportamento das seguintes métricas: tempo médio de resposta, taxa de utilização de recursos, throughput, taxa de descarte e número de mensagens no sistema. Essas análises mostram que a taxa de chegada e o número de recursos disponíveis na névoa podem ser muito influentes no desempenho da rede. O modelo proposto e as análises realizadas podem ajudar os projetistas de sistemas a otimizar suas arquiteturas computacionais antes mesmo da construção do edifício.

  • JORDÃO FRAZÃO SOARES
  • Metodologia de Baixo Custo para Realizar Eye Tracking Utilizando Regiões de Interesse
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 24/09/2021
  • Mostrar Resumo
  • A área da educação possui desafios a serem enfrentados devido à variedade de aptidões e restrições dos estudantes. Para que sejam produzidas novas formas de ensinar é necessário o desenvolvimento de novas alternativas para incrementar os métodos tradicionais de ensino. Diante deste cenário, uma das técnicas promissoras apresentadas na literatura e na educação é o eye tracking do estudante. Esta técnica permite que o profissional educador conheça o comportamento ocular do estudante ao realizar atividades no computador. De maneira geral, esta técnica é realizada com uso de produtos comerciais ou com métodos pouco acessíveis para os profissionais de educação. Neste contexto, o presente trabalho propõe uma metodologia de baixo custo para realizar eye tracking e identificar a região de interesse do olhar do estudante usando apenas webcam de um notebook comum. Para isso, utiliza-se uma Rede Neural Convolucional aliada com técnicas de transfer learning e fine tuning para classificar as imagens dos olhos do usuário e retornar quais as regiões de maior interesse durante a realização da atividade proposta. Os resultados obtidos nos experimentos denotam que o modelo utilizado tem boa eficácia na classificação das imagens e que tal método tem potencial para ser utilizado no desenvolvimento de uma ferramenta aplicável à educação.

  • BRUNO ALVES MOREIRA
  • Eye Voice: Uma Aplicação Para Comunicação Aumentativa e Alternativa Baseada em Rastreamento Ocular Para Pessoas com Dificuldade de Fala e Função Motora Reduzida
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 17/09/2021
  • Mostrar Resumo
  • A comunicação é uma habilidade fundamental para que o ser humano possa se desenvolver e conviver em sociedade. Diversos acontecimentos ao longo da vida podem ocasionar deficiências que impedem ou prejudicam a comunicação pela fala. Apesar de existir alternativas soluções para apoiar a Comunicação Aumentativa e Alternativa (CAA), a maior parte não atende inteiramente pessoas com dificuldade de fala e função motora reduzida. Diante disso, a aplicação Eye Voice é proposta no âmbito desta qualificação deMestrado. O Eye Voice é uma aplicação que auxilia a CAA de pessoas sem capacidade de comunicação por fala ou gestos. O Eye Voice proporciona a inserção de seus usuários nos mais comuns contextos comunicativos funcionais de forma simples e objetiva, por meio de rastreamento ocular. Na primeira fase deste trabalho de mestrado foi realizada uma revisão sistemática da literatura que apresentou as deficiências das soluções encontradas para atender o público-alvo deste trabalho. O Eye Voice foi avaliado ao ser utilizado por pessoas acamadas com necessidades complexas de comunicação (sem fala e com deficiência motora) e com pessoas saudáveis, simulando as características de pessoas acamadas sem possibilidades de comunicação por fala e gestos. A avaliação foi realizada com 6 participantes (usuários), 1 profissional da saúde e 2 responsáveis de 2 participantes.De acordo com a comunicação estabelecida na avaliação e das respostas obtidas (a partir do questionário aplicado no experimento) a solução proposta foi avaliada positivamente. Os resultados mostraram que o Eye Voice é uma aplicação simples, objetiva, fácil de utilizar e proporciona aos seus usuários uma alternativa para realizar uma comunicação por meio de rastreamento ocular.

  • HELANO MIGUEL BRASIL FRANÇA PORTELA
  • Método de Segmentação de Úlceras de Córnea Usando U-net e Ajuste Fino em Duas Etapas
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 06/07/2021
  • Mostrar Resumo
  • A Úlcera de córnea é uma das doenças oculares mais frequentes e é definida como uma inflamação ou, até mesmo enfermidade ainda mais grave, como infecção. Mensurar adequadamente lesões de úlcera de córnea possibilita que os médicos possam avaliar adequadamente a efetividade do tratamento e auxiliar na tomada de decisões. O presente trabalho descreve o desenvolvimento de um  método que tem como objetivo final segmentar automaticamente lesões de úlcera de córnea. Tal método faz uso da arquitetura de Rede Neural Convolucional (CNN) U-net e realiza o refinamento do modelo utilizando um método de ajuste-fino em duas etapas. O resultado proveniente do modelo usando a arquitetura U-net é então submetido a operações de pós-processamento: limiarização de Otsu; dilatações considerando o complemento da forma da lesão com o objetivo de preencher buracos e, por fim, fechamento. O modelo foi treinando usando 358 exemplos de imagens de córnea com a presença de úlceras do tipo Point-Like. Com base em testes realizados em 91 imagens de úlcera de córnea do tipo Flaky, foram calculadas métricas a fim de  avaliar o desempenho do método, atingindo média de 0,823 de Coeficiente Dice, 88,9% para a métrica de Sensibilidade, 99,4% de Especificidade e Coeficiente Positivo Dice de 0,835. 

  • JOCINÊS DELA-FLORA DA SILVEIRA
  • Estudo e Desenvolvimento de um Sistema Fuzzy para Auxílio à Tomada de Decisão de Infraestrutura de Rede LoRaWAN, LoRaMesh e Híbrida para um Cenário Smart Farming
  • Orientador : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: 18/06/2021
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O aumento da população mundial vem demandando cada vez mais um crescimento na produção de alimentos, gerando uma necessidade de expansão da produção agrícola. Pesquisas envolvendo agricultura inteligente em inglês Smart Farming e o crescimento de tecnologias usando Internet das Coisas em inglês Internet of Things (IoT) veem contribuindo de maneira significativa para a viabilidade de crescimento da produtividade desse setor. O objetivo central do uso dessas tecnologias é coletar, monitorar e empregar efetivamente dados relevantes para os processos agrícolas, como forma de alcançar uma agricultura otimizada em ambiente sustentável. Neste contexto, as redes de sensores sem fio estão sendo utilizadas cada vez mais em diversos tipos de sistemas voltados para cenários Smart Farming. Entre os protocolos de comunicação utilizados por esses sistemas, a tecnologia de longo alcance LoRa destaca-se em razão de suportar transmissões em distâncias muito maiores que os demais, demandando pouca energia. Dessa forma, este trabalho propõe um estudo, comparação e análise das arquiteturas de redes LoRaWAN e LoRaMesh (com equipamentos Radioenge), bem como a hibridização dessas tecnologias em um ambiente agrícola, mais precisamente no Centro de Ciências Agrárias (CCA) da Universidade Federal do Piauí (UFPI), Teresina, Piauí, Brasil. A metodologia proposta consiste na implementação das tecnologias em cenário real e no estudo e analise dos parâmetros de rede utilizando módulos LoRaWAN e LoRaMesh adquiridos junto a empresa Radienge. A avaliação de desempenho foi realizada com base em medições de um cenário real Non-Line-Of-Sight (NLOS), ou seja, cenário sem visada entre os dispositivos. Nesta avaliação, fatores como distância entre nós e diferentes fatores de espalhamento em inglês Spreading Factor (SF) foram considerados. Indicação de intensidade do sinal recebido em inglês Indication of Received Signal Strength (RSSI), Relação Sinal-Ruído em inglês Signal to Noise Ratio (SNR) e taxa de perda de pacotes são as métricas de avaliação consideradas neste estudo. Ainda neste contexto, foi desenvolvido um sistema Fuzzy para auxiliar na tomada de decisão do plano de implantação da infraestrutura de comunicação da IoT para troca efetiva de informações entre dispositivos (sensores, atuadores, controladores, entre outros) no cenário Smart Farming. O sistema oferece grande potencial para auxiliar os gestores na escolha da implementação entre as tecnologias LoRaWAN, LoRaMesh ou híbridas, além de permitir diversos benefícios no desenvolvimento local e na infraestrutura de comunicação.

  • ELINEIDE SILVA DOS SANTOS
  • Segmentação Semi-automática de Lesões de Pele com Base em Superpixels e Informações de Textura
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 28/05/2021
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O diagnóstico de doenças de pele é feito principalmente por meio da visualização de imagens

    dermatoscópicas. Nesse contexto, vários sistemas computacionais para processamento e

    análise de imagens de lesões de pele foram estudados e desenvolvidos. Tais sistemas

    aplicam a segmentação de imagens com lesão como etapa fundamental em suas abordagens.

    Este trabalho apresenta um método semi-automático que pode auxiliar o médico no

    monitoramento da evolução das lesões de pele. A metodologia proposta pré-segmenta

    imagens com lesões cutâneas utilizando o algoritmo SLIC0 para a geração de superpixels.

    Depois disso, cada superpixel é representado na forma de um vetor de atributos usando

    um descritor formado por uma combinação das características de textura GLCM e tamura.

    Essas características foram selecionados com base em um estudo empírico em que, além

    desses descritores, foram avaliados os descritores GLRLM, geoestatística e LBP. Os vetores

    de atributos, representando cada superpixel, foram utilizados como entrada para o algoritmo

    SFc-means (seeded fuzzy C-means). Esse algoritmo de agrupamento semissupervisionado

    usa determinadas regiões marcadas por especialistas para agrupar os superpixels em

    regiões de lesão ou plano de fundo. Finalmente, a imagem segmentada passa por uma

    etapa de pós-processamento usando técnicas de morfologia matemática e um contorno

    ativo geodésico para eliminar ruídos e suavizar bordas. Os experimentos foram realizados

    em 3974 imagens: 2995 imagens das bases de dados PH2, DermIS e ISIC 2018 foram

    utilizadas para estabelecer os parâmetros do método, e 979 imagens dos conjuntos de

    dados ISIC 2016 e ISIC 2017 que foram utilizadas para a análise de desempenho. Os

    resultados mostraram que, ao utilizar apenas 1% dos superpixels, o método pode atingir

    uma acurácias de segmentação média de 95,97%, proporcionando desempenho superior aos

    métodos apresentados na literatura para essas bases de dados. Assim, embora o método

    proposto exija a intervenção do usuário, fornece resultados de segmentação muito perto de

    sua delimitação manual, e é significativamente mais fácil e menos demorado comparado

    com a segmentação manual.

  • LÚCIA EMÍLIA SOARES SILVA
  • Rotulação Automática de Grupos Baseada em Análise de Erro de Regressão
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 23/04/2021
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Os Modelos de Rotulação de Grupos propõem a aplicação de técnicas de Inteligência Artificial para extração das principais características dos grupos, a fim de fornecer uma ferramenta para interpretação de agrupamentos oriundos dos mais diversos tipos de algoritmos de clustering. Para isso, diferentes técnincas, como Aprendizagem de Máquina, Lógica Fuzzy e discretização de dados são utilizadas na identificação dos atributos mais relevantes para formação dos grupos e dos intervalos de valores associados a eles. Esse trabalho apresenta um modelo de rotulação de grupos baseado no uso de regressão para delimitação de intervalos de valores dos atributos que revelem os pares atributo-intervalo que melhor resumem os grupos. A relevância de um atributo para o agrupamento é determinada pelos intervalos de valores dos atributos em que o erro de predição da regressão é mínimo, resultando em rótulos específicos e capazes de representar a maioria dos elementos dos grupos. Os resultados obtidos nos experimentos mostram que o modelo é eficaz em rotular os grupos, apresentando Taxas de Concordâncias entre 0,90 e 1,0 para as bases de dados utilizadas, além de garantir rótulos exclusivos para cada grupo por meio da análise da Taxa de Concordância dos rótulos em grupos distintos.

     

  • IGOR RAFAEL SANTOS DA SILVA
  • A Many-Objective, Demand Response Mechanism for Energy Management in a Microgrid Scenario
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 26/02/2021
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • The electricity demand growth is one of the main problems in the power grid scenario, as this situation increases the electricity supply complexity. Simultaneously, environmental issues creates the need for non-pollutant, renewable solutions. With the advent of smart grids, which consists of integrating information and communication technologies (ICT) to a traditional grid, the demand management can be improved by the consumer participation. This process is defined as Demand Response, which is a program that aims to alter the consumer's electricity consumption patterns through incentives or benefits, either based on changes in the electricity price over time or when the power grid operation needs any intervention. Price-based DR programs are the most common schemes, in which a tariff model is used to help the consumer adjust his energy consumption based on electricity price variation. With the increased insertion of distributed generation and the microgrids, the management on the demand-side needs to consider the home appliances usage, as well as the distributed energy resources utilization, considering both the operational characteristics of these elements and the consumer preferences. In this work, a preference-based, demand response (DR) many-objective optimization model based on real-time electricity price is presented to solve the problem of optimal residential load management. The purpose of such a model are: 1) to minimize the costs associated with consumption; 2) to minimize the inconvenience caused to consumers; 3) to minimize environmental pollution; 4) to minimize the occurrence of rebound peaks. Potential solutions to the underlying many-objective optimization problem are subject to a set of electrical and operational constraints related to home appliances categories and the utilization of distributed energy resources (DER) and energy storage systems (ESS). The use of the proposed model is illustrated in a realistic microgrid scenario where suitable solutions were found by the Non-Dominated Sorting Genetic Algorithm III (NSGA-III). These solutions determine new operational periods for home appliances as well as the utilization of DER and ESS for the planning horizon while considering consumer preferences. Besides helping consumers to take advantage of  the benefits offered by DR, the experimental results show that the many-objective DR model together with the NSGA-III algorithm can effectively minimize energy-consumption costs as well as reduce inconvenience costs, environmental pollution and rebound peaks.

  • OTÁVIO CURY DA COSTA CASTRO
  • Avaliação de Técnicas para a Identificação de Mantenedores de Código Fonte
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 26/02/2021
  • Mostrar Resumo
  • Durante o processo de evolução de um software, é comum que desenvolvedores acumulem conhecimento em determinados arquivos de código fonte que o compõe. Esses desenvolvedores são responsáveis pelo maior número de contribuições no código desses arquivos, o que torna-os mais aptos entre os membros da equipe de desenvolvimento a realizarem futuras atividades que envolvam esses arquivos. Isso faz da identificação desses mantenedores de código uma informação importante nos ciclos de desenvolvimento de software. Essa informação pode ser utilizada em atividades como: implementação de novas funcionalidades, manutenção de código, assistência a novos membros da equipe, revisão de código, entre outros contextos da produção de software de qualidade. Porém, a identificação desses mantenedores de arquivo nem sempre é uma tarefa trivial, principalmente em projetos grandes onde um arquivo pode ter dezenas ou mesmo centenas de contribuidores durante sua história. Desse contexto surge a necessidade da criação de técnicas cada vez mais eficazes na identificação automática desses mantenedores. Há estudos na literatura que têm como objetivo propor técnicas que utilizam de mineração de repositório de software para ajudar na identificação de mantenedores de arquivos. Porém, acredita-se que ainda há lacunas nesta área de estudo que podem ser exploradas. Em trabalhos anteriores, foi identificado que informações como recência das modificações e o tamanho do arquivo em questão influenciam no conhecimento que determinado desenvolvedor tem com aquele arquivo. Neste trabalho, essas e outras informações extraídas do histórico de desenvolvimento foram combinadas em um modelo linear, e em classificadores de aprendizagem de máquina, para a identificação de mantenedores de arquivo. Essas novas técnicas foram comparadas com outras quatro existentes na literatura: (1) número de commits; (2) número de linhas adicionadas por um desenvolvedor na última versão do arquivo; (3 e 4) dois modelos lineares propostos em trabalhos da área. Foram utilizadas as métricas Recall, Precision e F-Measure para avaliar as performances das técnicas em dois cenários. Os resultados mostram que os modelos propostos apresentam os melhores F-Measures nos cenários analisados, com os classificadores de aprendizagem de máquina atingindo os melhores Precisions. A partir dos resultados obtidos, conclui-se que a definição da melhor técnica depende do contexto da aplicação destas técnicas.

  • NECLYEUX SOUSA MONTEIRO
  • Provisão de Banda de Guarda Adaptativa em Redes Ópticas Elásticas
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 28/01/2021
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As redes ópticas elásticas compõem uma infraestrutura de rede capaz de suportar a grande demanda de tráfego de dados das redes de alta velocidade. Um dos problemas que devem ser solucionados para garantir o bom funcionamento da rede é o chamado Routing, Modulation Level and Spectrum Assignment (RMLSA). Além disso, os efeitos de camada física impactam diretamente na qualidade de transmissão dos circuitos. A banda de guarda é um intervalo de frequência que separa os circuitos ativos que compartilham os mesmos enlaces com objetivo de reduzir a interferência entre eles. Dessa forma, o tamanho do intervalo de frequência utilizado como banda de guarda pode ser utilizado de forma adaptativa, buscando assim um equilíbrio entre qualidade de transmissão e eficiência espectral. Esta dissertação de mestrado tem como principal objetivo estudar o problema de alocação de banda de guarda e propor novas soluções visando um melhor desempenho das redes ópticas elásticas. Para isso foram propostos os algoritmos GBUN, UTOPIAN, GBOM, GUARDIAN e ADVANCE. Tais algoritmos utilizam desde heurísticas simples baseadas em um único parâmetro, como a utilização da rede por exemplo, até técnicas com uma maior capacidade de otimização como sistema fuzzy e deep learning. O desempenho de cada um dos algoritmos propostos é comparado com a proposta adaptativa Adaptive Guard Band Assignment (Takeshita et al., 2016). Os resultados mostram que os algoritmos propostos apresentam um melhor desempenho em termos de probabilidade de bloqueio de banda e de eficiência energética para os cenários estudados. A proposta GUARDIAN apresentou uma menor probabilidade de bloqueio, com um ganho entre 99,15% e 99,97% ao se observar por exemplo o último ponto de carga na topologia Cost239 e uma melhor eficiência energética entre 0,25% e 5,79% para o mesmo cenário. Na topologia NSFNet, o algoritmo GBOM se destacou, obtendo uma redução no bloqueio geral entre 20,00% e 88,55% e uma melhor eficiência energética entre 0,80% e 13,00%. 

  • ARTUR FELIPE DA SILVA VELOSO
  • Estudo e Proposta de uma Infraestutura de Comunicação Híbrida com LoRaWAN e LoraMesh para Gerenciamento do Consumo de Energia Elétrica pelo lado da Demanda
  • Orientador : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: 27/01/2021
  • Mostrar Resumo
  • Em busca de resolver problemas no Sistema Elétrico de Potência (SEP) relacionados ao consumo de exacerbado e descontrolado da energia por meio dos consumidores finais como residências, condomínios, prédios públicos e indústrias, as Concessionárias de Energia Elétria (CEE) estão cada vez mais em busca de novas Tecnologias de Informação e Comunicação (TICs) para transformar as redes de distribuição de energia elétrica tradicionais
    em Redes Inteligentes (em inglês, Smart Grids - SG). Com esta implementação, as CEE conseguirão controlar de forma remota o consumo de energia elétrica bem como monitorar os dados gerados pelos Medidores Inteligentes (em inglês, Smart Meter - SM). Contudo, as tecnologias de Internet das Coisas (em inglês, Internet of Things - IoT) irão possibilitar isso tudo possa acontecer de forma rápida e de baixo custo, por serem dispositivos de baixo
    custo capazes de serem aderidos de forma rápida e escalar nestes cenários. Pesando nisso, este trabalho tem como objetivo estudar e propor uma infraestrutura de comunicação híbrida utilizando dipositivos de IoT como o LoRa (em inglês, Long Range, Longo Alcance) para prover uma Infraestrutura de Medição Avançada (em inglês, Advanced Metering Infrastructure - AMI) capaz de efetuar todas esstas aplicações como serviço oferecidos pela CEE para os consumidores finais. Adicionalmente, serviços como Gerenciamento Pelo Lado da Demanda (em inglês, Demand-side management - DSMaaS) poderão ser utilizados nesta infraestrutura. Dos resultados preliminares verificou-se que a rede LoRaWAN conseguiu um alcance de até 2,35km de distância e o LoRaMESH de 600m, assim, este é mais indicado para cenários onde se tem pouca interferência e os SMs estão em distâncias longas enquanto que o outro utilizado para cenários com maior aglomeração de SMs próximos. Considerando o cenário hibridizado entre LoraWAN e LoRaMESH, verifica-se que as possibilidades de implementação aumenta, visto que seu alcance foi de aproximadamente 3km considerando apenas um salto e podendo chegar a 1023 saltos na rede mesh. Dessa forma, foi possível propor a implementação real dos protocolos LoRaWAN e LoRaMESH bem como a hibridização dos dois protocolos para o DSMaaS.

2020
Descrição
  • JOSE PATRICIO DE SOUSA FILHO
  • Criação automatizada de Chatbots com capacidade de aprendizagem contínua.
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 23/11/2020
  • Mostrar Resumo
  • Programas de computador capazes de se comunicar com os usuários através da linguagem natural simulando o comportamento humano são pensados por obras ficcionais desde os primórdios da computação. Esses sistemas, hoje conhecidos como chatbots vêm sendo desenvolvidos há algumas décadas, mas tiveram na computação móvel o meio pelo qual se popularizar e alcançar os mais diversos públicos e fazer parte do cotidiano dos usuários. Mesmo com a recente popularização, desenvolver chatbots não é uma tarefa trivial, mas demanda grandes esforços tanto na fase de desenvolvimento quanto na de manutenção. Na tentativa de diminuir estes custos foram desenvolvidas várias plataformas, ferramentas e linguagens de modelagem de diálogos. Entretanto, as ferramentas atuais ainda oscilam entre a dificuldade de implementação; a impossibilidade de customização e a utilização de softwares e infraestrutura de terceiros. Este trabalho apresenta uma abordagem que visa reduzir os esforços necessários para o desenvolvimento de chatbots, possibilitando customização e não necessitando de utilização de software proprietário. A abordagem proposta cria, de forma automatizada, chatbots capazes de detectar erros e aprender continuamente através da interação com o usuário, utilizando como entrada para a criação destes sistemas listas de perguntas e respostas escritas em linguagem natural. Para isso são utilizadas técnicas de Processamento de Linguagem Natural e Aprendizagem de Máquina, tais como Part-of-Speech TaggingWord Embedding e Redes Neurais Artificiais. A abordagem foi submetida a testes com usuário reais, e demonstrou sua capacidade de criação de chatbots funcionais, capazes de aprender com a interação e melhorar seu desempenho.

  • THASCIANO LIMA CARVALHO
  • PASTOR: Programa de Auxílio à Seleção e Tomada de decisão para pequenos Ruminantes
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 17/09/2020
  • Mostrar Resumo
  • O Melhoramento genético animal (MGA) é promovido através da seleção de indivíduos com genética superiores para que sejam os pais da futura geração. Uma etapa fundamental do MGA é a avaliação genética, isto é, a identificação dos indivíduos com valores genéticos favoráveis para determinada característica. Atualmente, a metodologia que tem maior destaque para avaliação genética é o Best Linear Unbiased Prediction (BLUP). Essa metodologia possui uma série de procedimentos estatísticos com o objetivo de estimar simultaneamente efeitos ambientais e genéticos. Contudo, a aplicação e resolução desse método demandam um custo computacional elevado por se tratar de um sistema de equações lineares. Nesse cenário, o objetivo deste trabalho é uma abordagem que usa Redes Neurais Artificiais (RNA) para predizer o mérito genético animal. Os resultados obtidos demonstram que a RNA teve bons resultados para predição do mérito genético animal, que obteve resultados como Mean Squared Error (MSE) de 0.26, Mean Absolut Error (MAE) de 0.4 e correlação de Pearson de 0.81 com base no BLUP esperado. A abordagem proposta tem potencial para auxiliar os produtores na tomada de decisão quando deparados com a identificação e seleção de animais com potencial genético superior para as características de importância econômica em sistemas de produção de carne de pequenos ruminantes.

  • ALEXANDRE CRISTIAN LAGES DE ARAUJO
  • Estudo Empírico Sobre Gamification Aplicada ao Ensino
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 10/09/2020
  • Mostrar Resumo
  • A educação brasileira vem apresentando resultados abaixo das expectativas há
    algum tempo. Alguns especialistas apontam a falta de motivação dos alunos
    como um dos desafios a serem enfrentados. Eles alegam que as consequências
    são baixo rendimento e evasão. A gamificação aplicada à educação é uma
    alternativa usada para tentar mudar esse cenário. Ela consiste no uso de
    elementos de jogos no processo de ensino, para aumentar o envolvimento dos
    alunos em relação aos objetivos ligados ao aprendizado. Este trabalho avalia o
    impacto do uso da gamificação no ensino médio, a partir do acompanhamento
    de algumas turmas de uma instituição de ensino particular. Os alunos dessas turmas usaram um aplicativo que introduziu alguns elementos ligados à gamificação. Foi realizada uma avaliação em retrospectiva, utilizando os elementos propostos na abordagem. Os resultados obtidos apontam que os elementos utilizados foram capazes de gerar estímulo para os alunos. O trabalho apresenta ainda uma avaliação qualitativa que demonstrou uma boaaceitação dos alunos aos elementos de game design utilizados na avaliação, e uma avaliação quantitativa que indica a existência de uma relação entre o uso da gamificação e um nivelamento entre as notas. Dessa forma, os resultados nos levam a crer que a gamificação pode estimular alunos e com isso gerar resultados nivelados que aqueles que estudam em um ambiente sem esse diferencial.

  • RAFAEL MARTINS BARROS
  • Uso de Análise de Sensibilidade por Multiplicadores de Lagrange para a Definição de Sequências de Ajustes de Controles Determinados pelo Despacho Ótimo Reativo
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 28/08/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O Fluxo de Potência Ótimo (FPO) desempenha um papel fundamental para o planejamento e operação de sistemas elétricos de potência. No entanto, alguns aspectos práticos da utilização das soluções encontradas pela resolução do FPO permanecem em aberto. A maioria dos trabalhos encontrados na literatura foca em calcular o ponto de operação ótima da rede, não fornecendo aos operadores do sistema uma sequência adequada de ajustes de controle para conduzir o sistema a tal ponto de operação. Nesse contexto, este trabalho visa a proposição de uma abordagem para definir sequências de ajustes de controle, os quais são determinados pela resolução do problema de despacho ótimo reativo, através de análise de sensibilidade dos multiplicadores de Lagrange. Esta abordagem é metodologicamente fundamentada na reformulação do problema de FPO em termos de ajustes de controle ótimo em vez de valores de controle ótimo e em resoluções do problema dual associado ao problema reformulado para determinar os multiplicadores de Lagrange ao longo do caminho do ponto de operação inicial para o ótimo. A cada iteração da abordagem proposta, os multiplicadores de Lagrange associados a cada ajuste de controle são determinados pela resolução de um sistema de equações algébricas derivadas das condições de otimalidade necessárias de Karush-Kuhn-Tucker. A análise de sensibilidade é realizada por meio da ponderação dos multiplicadores de Lagrange pela magnitude dos ajustes de controle, indicando qual ajuste de controle deve ser realizado por vez. O processo iterativo continua até que todos os ajustes tenham sido efetivados. Para validar esta proposta, foram realizados experimentos com os sistemas de teste IEEE de 14, 30, 57, 118 e 300 barras. Os resultados obtidos comprovam a robustez da abordagem, dada a qualidade das soluções e o baixo tempo computacional encontrados.

  • TARDELLY DE ARAUJO CAVALCANTE
  • Eye Tracking Como Estratégia de Ensino e Avaliação na Educação Inclusiva: Aplicação com Estudantes com Autismo
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 02/04/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Na área de educação, profissionais ensinam e avaliam o repertório acadêmico de estudantes com as mais diversas habilidades, limitações e históricos. Alguns desses estudantes podem apresentar dificuldades de aprendizagem, principalmente pela não adaptação aos métodos pedagógicos ou outros fatores. Entre esses diversos estudantes os com Transtorno de Espectro Autista - TEA, esses estudantes têm uma maneira diferente de aprender. Eles tendem a absorver melhor informações visuais, conseguindo lidar com mais facilidade com atividades fragmentadas em pequenas etapas e podem ser extremamente talentosos em áreas específicas. É possível aproveitar o interesse restrito da criança para incentivar o desenvolvimento de habilidades como a de leitura, adotando livros que tratem do tema de interesse do estudante. Pode-se começar com formação de pequenas palavras, com frases curtas e imagens relacionadas, assim potencializando as habilidades do estudante com TEA a aprender ainda mais. Combinar as habilidades de estudantes com TEA é interessante, pois, alguns desses estudantes podem sofrer de atraso de linguagem, deficiência intelectual, hiperatividade ou isolamento, e o profissional da educação sozinho não é necessariamente capaz de lidar com todas essas situações.  Para contornar essa problemática e fornecer meios para que o profissional identifique se as atividades propostas ao estudante são eficientes a determinado estudante em determinada fase do ensino, é importante encontrar metodologias que se encaixem com o perfil de cada um dos estudantes. Este trabalho de qualificação de mestrado propõe usar a análise do comportamento ocular (eye tracking) dos estudantes durante a realização de atividades educacionais no computador como estrategia de ensino e avaliação de estudante com TEA para identificação de fatores que evidenciem maneiras e conteúdos confortáveis na qual o estudante se identifique, assim potencializando o aprendizado do estudante . Para avaliação e demonstração desta proposta, foram desenvolvidas 4 atividades diferentes que foram resolvidas por 7 estudantes com diagnóstico de Transtorno do Espectro Autista - TEA.

  • IRVAYNE MATHEUS DE SOUSA IBIAPINA
  • MiD: Uma Ferramenta para Facilitar a Integração entre Sistemas Web
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 27/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As soluções tecnológicas estão cada vez mais presentes no cotidiano dos ambientes corporativos. Essas soluções auxiliam em diversas atividades que são de suma importância para seus funcionários, clientes e parceiros. Entretanto, conforme as demandas crescem, aumentam a complexidade das necessidades empresariais, e com isso, os sistemas tecnológicos necessitam de evolução para manter o padrão de qualidade dos serviços. Nesse sentido, a integração entre sistemas é uma alternativa para auxiliar nesse cenário evolutivo, possibilitando o compartilhamento de recursos entre sistemas diferentes, contemplando a interoperabilidade, reduzindo as redundâncias indesejadas e eliminando os gargalos e incompatibilidades. Para padronizar a comunicação e serviços, viabilizando a troca de mensagens entre sistemas heterogêneos, potencializando a reutilização, e simplificando o processo de integração entre software, que surgiram os Web Services. Contudo, apesar das vantagens e benefícios, existem algumas dificuldades inerentes a realização de integração, que são: o esforço gasto para o desenvolvimento, o processo de integração com Sistemas Legados, os riscos associados as modificações em softwares e a integração com softwares desenvolvido por terceiros. Por conta disso, propõe-se uma abordagem e uma ferramenta, intitulada MiD, para contornar tais dificuldades inerentes a construção de Web Services. O objetivo do MiD é simplifica o desenvolvimento de Web Services para integração entre sistemas Web, possibilitando a realização da integração sem necessidade de acesso ao código-fonte do sistema alvo, de maneira não invasiva, independente da tecnologia e com baixo custo relacionado ao desenvolvimento e manutenção. Foi realizada uma avaliação para investigar os benefícios da utilização do MiD em um projeto real de integração. Os resultados preliminares concluíram que, para o contexto utilizada na conjuntura avaliativa, o MiD tem potencial para reduzir o esforço no desenvolvimento de Web Services para integração.

  • LUÍS HENRIQUE SILVA VOGADO
  • "LeukNet" - Um Modelo de Rede Neural Convolucional Para o Diagnóstico de Leucemia
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 27/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O uso eficiente da tecnologia para o desenvolvimento de sistemas médicos auxilia na redução de custos, além de promover o diagnóstico precoce de doenças. A leucemia é um distúrbio que afeta a medula óssea, causando a produção descontrolada de leucócitos, prejudicando o transporte de oxigênio e causando problemas de coagulação sanguínea. Um hemograma completo ou análise de imagem morfológica é frequentemente utilizado para identificar  células com leucemia. No entanto, esses métodos podem ser demorados e propensos a erros humanos. Dessa forma, neste trabalho é apresentada uma metodologia para o desenvolvimento de um modelo para diagnosticar leucemia em imagens de lâminas de sangue usando técnicas de validação cross-dataset que oferecem novas diretrizes para implantação e avaliação de tais sistemas. A LeukNet é uma Rede Neural Convolucional (RNC) (Convolutional Neural Network - CNN) que auxilia no diagnóstico de leucemia e inclui uma arquitetura baseada nos blocos convolucionais VGG-16, com camadas densas mais compactas, usando estratégias de transferência de aprendizado com deeply fine-tuning. Para definir o modelo e os pesos da LeukNet, diferentes arquiteturas e métodos de ajuste fino foram avaliados utilizando 18 bases de dados. Ao todo, foram usadas 3536 imagens de diferentes fontes e com características distintas de cor, textura, contraste e resolução. A técnica de validação cross-datasetLeave-One-Dataset-Out Cross-Validation (LODOCV) foi proposta para avaliar a capacidade de generalização do modelo. As acurácias obtidas por meio do LODOCV com as bases ALL-IDB 1, ALL-IDB 2 e UFG como conjuntos de testes foram 97,04%, 82,46% e 70,24%, respectivamente. Para permitir a comparação do modelo proposto com o estado da arte, o k-fold cross validation foi executado, alcançando 98,24% de acurácia. Esses resultados são consistentes quando comparados com o estado da arte. O uso da avaliação do LODOCV demonstrou a necessidade de uma nova avaliação para uma melhor capacidade de generalização, permitindo que um modelo funcione satisfatoriamente mesmo em dados não vistos, o que é fundamental para os sistemas CAD.

  • MARCEL RAIMUNDO DE SOUZA MOURA
  • CAIBAL - Class-Attribute Interdependency Based 1 Automatic Labeler
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 27/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O clustering (agrupamento de dados) por métodos não-supervisionados é uma área de pesquisa relevante em Aprendizado de Máquina. O objetivo do clustering é agrupar os objetos de um conjunto de dados de modo que cada grupo seja constituído por aqueles similares, que possuem características que os tornam agrupáveis e essas mesmas caracterís- ticas devem ser suficientes em distingui-los de outros grupos. Para que o clustering seja factível, a tarefa de interpretação dos grupos é necessária e diante disso surge o problema de rotulação. A rotulação automática resulta em tuplas compostas por atributos e suas respectivas faixas de valores. Cada cluster deve ter uma quantidade de tuplas capaz de fornecer uma identificação única para todos os objetos, de modo que sejam distinguíveis entre si por atributos representativos distintos ou faixas de valores diferentes para um mesmo atributo. Este trabalho apresenta um método não-supervisionado de rotulação de clusters que emprega o algoritmo de discretização CAIM (Class-Attribute Interdependency Maximization)a fim encontrar faixas de valores representativas nos atributos que serão relevantes para interpretação dos clusters. Nos atributos numéricos contínuos do conjunto de dados é utilizada uma discretização que considera o índice de interdependência entre estes atributos e os clusters formados na fase de agrupamento. Do processo de discretização dos atributos resultarão faixas de valores que serão analisadas e comparadas com os valores ocorrentes dos atributos em cada cluster, para determinar os atributos e faixas de valores representativas. Estes atributos e faixas de valores expressivos formarão o rótulo para cada cluster. O modelo proposto nessa pesquisa buscou obter um método que mitigasse as limitações observadas em outros trabalhos que propunham rotulação automática de clusters. Os testes resultam em uma acurácia média dos rótulos sugeridos de 98.03% considerando todas as bases de dados testadas. Estes rótulos são constituídos por poucos atributos e em muitos casos um atributo é suficiente para defini-los.

  • ANDRÉ DE LIMA MACHADO
  • Reconhecimento de Produtos de Mercearia para Auxiliar Pessoas com Deficiência Visual
  • Orientador : LAURINDO DE SOUSA BRITTO NETO
  • Data: 25/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Pessoas com deficiência visual possuem grande dificuldade em reconhecer objetos no dia a dia. Apesar de diversas tecnologias assistivas terem sido desenvolvidas para auxiliá-los nessa tarefa, muitas delas têm alto custo ou baixa taxa de acertos. Com o crescente estabelecimento da Internet das Coisas (Internet of Things – IoT), os dispositivos wearable têm se tornado cada vez mais acessíveis, possibilitando o uso de técnicas de Visão Computacional para a proposição de sistemas assistivos. Tais sistemas conseguem distinguir diferentes categorias de objetos e/ou até mesmo localizá-los, sem a necessidade de tocá-los, proporcionando ao deficiente visual uma maior independência. Devido à grande variedade de categorias distintas de objetos, que as pessoas com deficiência visual possuem necessidade de reconhecer no seu cotidiano, este trabalho focou em produtos que, geralmente, são encontrados em prateleiras de mercearias, supermercados, geladeiras e/ou despensas. Um sistema assistivo para reconhecer tal categoria de objetos seria bastante útil para o deficiente visual, visto que ele poderia verificar, sem ajuda de terceiros, se na geladeira de sua casa ou em sua despensa, por exemplo, tem uma caixa de leite ou uma caixa de suco de uva. Assim, considerando essa categoria de objetos, este trabalho realizou uma revisão sistemática da literatura, que identificou o estado da arte sobre esse tema. Foram descritas cinco bases de dados públicas, voltadas para a classificação de produtos de mercearia. E, finalmente, foi proposta uma nova abordagem em reconhecimento de objetos para o auxílio de pessoas com deficiência visual, que alcançou taxas de acurácia superiores às abordagens propostas pelos autores das bases de dados selecionadas, aplicando Aumento de Dados com outras técnicas e ajustes a diferentes Redes Neurais Convolucionais (Convolutional Neural Networks – CNNs) pré-treinadas, em que a ResNet-50 obteve os melhores resultados nas bases de dados mais recentes.

  • JUSTINO DUARTE SANTOS
  • Geoestatísticas e Deep Features para Diferenciar Glomeruloesclerose Segmentar e Focal de Doença de Lesões Mínimas em Imagens de Biópsia Renal
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 20/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O equilíbrio da química interna de nossos corpos se deve ao trabalho dos rins. Nesses órgãos vitais se encontram os glomérulos que são pequenas estruturas responsáveis pela filtragem do sangue. Através da análise microscópica de biópsias renais os especialistas diagnosticam várias doenças e é no glomérulo que primariamente se observam alterações. Dentre as doenças que acometem os rins destacamos a Doença de Lesões Mínimas (DLM) sendo a causa da síndrome nefrótica em 90% dos pacientes infantis; e a Glomeruloesclerose Segmentar e Focal (GESF) sendo a causa principal da síndrome nefrótica nos pacientes adultos em vários países. Considerando que tratamentos inadequados podem conduzir à doenças renais crônicas, a identificação precisa dessas duas doenças é de suma importância, pois seus tratamentos e prognósticos são diferentes. A análise realizada por patologistas pode ser afetada por inúmeras situações como fadiga, subjetividade, pressa etc. nesse contexto estão os sistemas de diagnóstico auxiliado por computador (computer-aided diagnosis - CAD), que são imunes às condições citadas e servem de suporte ao especialista. Portanto, propomos um método capaz de diferenciar DLM e GESF através de imagens de exames patológicos. Em nossa abordagem caracterizamos a imagem por meio da extração de medidas geoestatísticas, informações de textura tradicionais e deep features de 4 redes neurais convolucionais. Ao todo 13.476 atributos foram avaliados. Foram testados ainda 2 métodos de seleção de características e 3 classificadores que combinados deram origem a mais de 300 modelos. Após análises, tomamos as 5 melhores arquiteturas e fizemos um ajuste de hiper-parâmetros do classificador, com isso alcançamos acurácia de 94,3% e Kappa igual a 87,9%, indicando uma concordância “quase perfeita” com a classificação do especialista.

  • IVENILTON ALEXANDRE DE SOUZA MOURA
  • Proposta, Validação e Avaliação Qualitativa de uma Arquitetura MPSoC Baseada Nos Elementos de Processamento de IPNoSys II
  • Orientador : IVAN SARAIVA SILVA
  • Data: 16/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • IPNOSys (Integrated Processing NoC System) é uma arquitetura não convencional de computadores que utiliza uma NoC (Network on-Chip) em uma topologia de malha 4 x 4, que abriga suas unidades de roteamento e processamento (RPUs). Ela executa processamento de pacotes trabalhando com conceitos de processamento em fila, permitindo a execução de até quatro tarefas simultaneamente. Com base em algumas de suas características e principalmente no seu modelo de programação, foram originadas as arquiteturas da família IPNOSys (IPNOSys II e IPNOSys-MPSoC). A IPNOSys II utiliza basicamente o mesmo modelo de programação da IPNOSys, no entanto, sua estrutura é composta de uma árvore de componentes chamados CSU (Communication and Synchronization Unit). Esses componentes podem conter ligações para outras quatro CSUs ou quatro unidades de processamento capazes de processar um pacote inteiro (PPUs - Packet Processor Unit). Conforme a árvore de elementos cresce, aumenta o caminho a percorrer para atingir as PPUs. Já a IPNOSys-MPSOC é uma arquitetura formada por uma rede de quatro IPNOSys, usando cada um deles como elemento processador. Dessa forma, a rede é capaz de realizar até dezesseis processamentos em paralelo. Essa organização oferece potencial para paralelizar uma grande quantidade de processos, no entanto sua estrutura em árvore produz uma taxa cada vez maior de transmissão conforme a quantidade de níveis aumenta. A IPNOSys-MPSoC não apresenta potencial para aumento da quantidade de pacotes em execução simultânea pelo fato de exigir mais canais de comunicação conforme aumenta a quantidade de elementos processadores (IPNOSys completos). A proposta desse trabalho é realizar os estudos de viabilidade para a composição de uma arquitetura usando como elementos de processamento as mesmas PPUs da arquitetura IPNOSys II, organizados em uma NoC de dimensões 4 x 4 como a NoC utilizada em IPNOSys, de modo a aumentar para 64 a quantidade de tarefas em execução simultânea. A arquitetura deve considerar a localização física das PPUs na alocação de tarefas inter-relacionadas, facilitando a comunicação entre tarefas pertencentes a um mesmo programa.

  • WILSON LEAL RODRIGUES JUNIOR
  • Uma Abordagem Baseada em Aprendizagem Profunda para a Detecção e Classificação de Distúrbios de Qualidade de Energia com Sinais Janelados
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 12/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O desenvolvimento do sistema elétrico com a integração de geração distribuída e microgrids, aumento  no uso de cargas não lineares e sensíveis por parte dos consumidores tem causado problemas à Qualidade de Energia Elétrica (QEE). Os estudos de QEE são comumente relacionados com distúrbios que alteram a característica senoidal da forma de onda de tensão e/ou corrente. O primeiro passo para analisar a QEE é detectar e posteriormente classificar os distúrbios, pois por meio da identificação do distúrbio é possivel conhecer suas causas e deliberar estratégias para mitigá-lo. As abordagens de detecção e classificação de distúrbios de QEE encontradas na literatura consistem principalmente em três etapas: 1) análise de sinais e extração de características, 2) seleção de características e 3) classificação dos distúrbios. No entanto, existem alguns problemas inerentes à essa abordagem. A extração de características é um processo impreciso e complexo e a seleção dessas características é um processo demorado que requer tempo e experiência. Essas duas etapas são críticas para a detecção e classificação de distúrbios,  pois influenciam diretamente no desempenho do classificador, visto que as características extraídas e selecionadas nem sempre são propícias para diferenciar os distúrbios.  Portanto, este trabalho propõe uma abordagem baseada em aprendizagem profunda utilizando os dados brutos, sem realizar pré-processamento, extração ou seleção manual das características dos sinais de tensão. A abordagem proposta é composta por camadas convolucionais, uma camada de pooling, uma camada LSTM e normalização em lote para extrair e selecionar características automaticamente. Adotou-se uma convolução 1-D para adaptar com o tipo de dado dos sinais de tensão. As características extraídas são usadas como entrada para camadas totalmente conectadas, sendo a última uma camada SoftMax. A abordagem proposta foi avaliada quanto a acurácia, precisão, recall e F1-Score apresentado pelo classificador e obteve um desempenho satisfatório mesmo diante de dados sobrepostos de ruídos e com baixa taxa de amostragem.



  • JÔNATAS OLIVEIRA LIMA DA SILVA
  • Algoritmos numéricos para resolver o Problema da Mochila Quadrático
  • Orientador : PAULO SERGIO MARQUES DOS SANTOS
  • Data: 06/03/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Esse trabalho tem como objetivo desenvolver alternativas de algoritmos que resolvem o Problema da Mochila Quadrático. No trabalho foram utilizadas técnicas de paralelização em métodos sequenciais, tais como o Método de Newton Secante e Método de Fixação de Variável. Para o emprego de tais técnicas utilizamos as diretivas OpenMP. Tal abordagem permitiu a realização de testes em problemas de larga escala. Experimentos numéricos mostram que o algoritmo é promissor quando exploramos o potencial de máquinas multinúcleo.

  • MIGUEL LINO FERREIRA NETO
  • Mecanismo de Reconfiguração Dinâmica Orientado a Eventos para Redes de Sensores sem Fio Cluster-Tree de Larga Escala baseadas no Padrão IEEE 802.15.4
  • Orientador : ERICO MENESES LEAO
  • Data: 28/02/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com o advento da Internet das Coisas (IoT) no âmbito industrial, comercial e residencial, o desenvolvimento de aplicações e mecanismos de comunicação eficientes baseadas em Redes Sensores Sem Fio (RSSF) têm se tornado uma área atrativa. O conjunto de normas IEEE 802.15.4 e ZigBee forma uma pilha de protocolos adequada para implementação de RSSFs, oferecendo capacidade de sensoriamento, mobilidade, autonomia e cooperação entre dispositivos. Tais normas operam sob baixas taxas de comunicação, baixo custo e baixo consumo energético, com suporte a topologias estrela e peer-to-peer. A cluster-tree é um tipo especial de topologia peer-to-peer que permite a sincronização de nós e é apontada como uma das topologias mais adequadas para implantação de ambientes de larga escala. Nesse contexto, a ocorrência de eventos adversos do ambiente monitorado podem gerar prejuízos à operação regular da rede (intensificados pelas típicas condições de tráfego as quais são submetidas). Tal fato torna necessário o desenvolvimento de esquemas para mitigar os altos atrasos de comunicação fim-a-fim, congestionamentos e eventuais perdas de pacotes, comuns em típicos ambientes de monitoramento. Este trabalho de Mestrado propõe um mecanismo de reconfiguração dinâmica das principais estruturas de comunicação em RSSFs cluster-tree de larga escala baseadas nas normas IEEE 802.15.4/ZigBee. O mecanismo proposto compreende uma arquitetura composta de módulos, que engloba desde o processo de formação orientada de rede, até uma abordagem auto-adaptável que ajusta dinamicamente as estruturas de comunicação de acordo com a detecção de alterações dos fluxos de mensagens de monitoramento. Com isso, pretende-se fornecer Qualidade de Serviço para os típicos fluxos de monitoramento e controle, a fim de evitar problemas típicos dessas redes, tais como: altos atrasos de comunicação, congestionamento e perda de pacotes. Dessa forma, a ideia básica é otimizar as mensagens de monitoramento, ao mesmo tempo que permite uma rápida disseminação de mensagens de controle e reconfiguração de rede. Como resultados, este trabalho fornece uma avaliação de desempenho por simulação, a fim de implementar e avaliar a eficiência dos principais mecanismos propostos.

  • ALLAN JHEYSON RAMOS GONÇALVES
  • A mobility solution for Low Power and LossyNetworks using the LOADng protocol
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 21/02/2020
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Many devices on an Internet of Things (IoT) network have severe constraints on computing resources in terms of memory, processing, and power, which make these networks generally known as Low power and Lossy Networks (LLNs). Device mobility in these scenarios has several negative impacts on the network, particularly in terms of connectivity, as node movement affects the routes established by the routing protocol. The network performance is highly related to the adjacent routing protocol. The protocol considered as standard for IoT networks was designed for static networks, and it has a low reactivity in mobility scenarios, besides other limitations. Lightweight On-demand Ad hoc Distance-vector Routing - Next Generation (LOADng) is currently the primary reactive protocol for LLNs. Considering that mobility is a crucial feature for the future of IoT, this paper proposes EKF-LOADng, a solution built from LOADng for LLNs in the mobility context. The solution aims to make the mobile nodes aware of its location, as well as to predict the nonlinear trajectory of these nodes through the EKF. The location obtained is used to improve the connectivity of the mobile nodes and to shorten paths while messages are exchanged on the network. EKF-LOADng was compared with the standard version and an enhanced version of the LOADng protocol in two different scenarios in the Contiki OS. Simulation results show the proposed solution is capable of locating mobile nodes with an average error of 1.46 meters while maintaining connectivity to other nodes, as well as outperforms the compared proposals in some network metrics in terms of packet delivery ratio, latency, power consumption, and control bit overhead.

  • MARIA ISABEL LIMAYLLA LUNAREJO
  • Detecção Automática de Usability Smells em Aplicações Web
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 04/02/2020
  • Mostrar Resumo
  • Atualmente, o uso de dispositivos móveis, principalmente smartphones, vem aumentando ao longo do tempo devido ao crescente desenvolvimento de tecnologias móveis, entre eles, a tecnologia touchscreen. No entanto, associado a este crescimento, também descobrimos que existem erros dos aplicativos Web ao ser executados em dispositivos móveis, em que vários desses problemas estão ligados à usabilidade e à experiência do usuário, conceitos com grande importância na qualidade de software. Portanto, a importância do teste de usabilidade em dispositivos móveis tem aumentado, no entanto, consome mais tempo e custo do que outros testes. Para reduzir o tempo e a complexidade dos testes de usabilidade nesses dispositivos, propomos um processo automático de identificação de sugestões de problemas de usabilidade (Usability Smells). Para isso, implementamos um processo de detecção automático de Usability Smell em dispositivos móveis na ferramenta UseSkill. Essa ferramenta usa os dados das interações do usuário com um software Web executado em um dispositivo móvel, descobrindo os Usability Smells por meio de reconhecimento de padrões. Também são propostos novos Usability Smells e seus padrões correspondentes para este contexto. Esse novo processo foi experimentado em três avaliações experimentais, sendo duas softwares utilizados em produção, e obtivemos resultados promissores na identificação de smells em relação a problemas de usabilidade.

  • MARIA ISABEL LIMAYLLA LUNAREJO
  • Detecção Automática de Usability Smells em Aplicações Web
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 04/02/2020
  • Mostrar Resumo
  • Atualmente, o uso de dispositivos móveis, principalmente smartphones, vem aumentando ao longo do tempo devido ao crescente desenvolvimento de tecnologias móveis, entre eles, a tecnologia touchscreen. No entanto, associado a este crescimento, também descobrimos que existem erros dos aplicativos Web ao ser executados em dispositivos móveis, em que vários desses problemas estão ligados à usabilidade e à experiência do usuário, conceitos com grande importância na qualidade de software. Portanto, a importância do teste de usabilidade em dispositivos móveis tem aumentado, no entanto, consome mais tempo e custo do que outros testes. Para reduzir o tempo e a complexidade dos testes de usabilidade nesses dispositivos, propomos um processo automático de identificação de sugestões de problemas de usabilidade (Usability Smells). Para isso, implementamos um processo de detecção automático de Usability Smell em dispositivos móveis na ferramenta UseSkill. Essa ferramenta usa os dados das interações do usuário com um software Web executado em um dispositivo móvel, descobrindo os Usability Smells por meio de reconhecimento de padrões. Também são propostos novos Usability Smells e seus padrões correspondentes para este contexto. Esse novo processo foi experimentado em três avaliações experimentais, sendo duas softwares utilizados em produção, e obtivemos resultados promissores na identificação de smells em relação a problemas de usabilidade.

2019
Descrição
  • RONIVON SILVA DIAS
  • Efeitos da visualização de dívidas técnicas em um projeto de manutenção de software
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 13/09/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A metáfora da dívida técnica (DT) é amplamente usada para encapsular inúmeros problemas de qualidade de software . Ela descreve o compromisso entre o benefício a curto prazo de tomar um atalho durante a fase de concepção ou implementação de um produto de software (por exemplo, para cumprir um prazo) e as consequências a longo prazo de tomar esse atalho, o que pode afetar a qualidade do produto de software . As DT’s devem ser gerenciadas para garantir a qualidade do software e também reduzir seus custos de manutenção e evolução. No entanto, as ferramentas para a detecção de DT geralmente fornecem resultados apenas considerando a perspectiva dos arquivos (classes e métodos), o que não é usual durante a gestão do projeto. Neste trabalho, uma técnica é proposta para identificar/visualizar DT em uma nova perspectiva: funcionalidade de software. A técnica proposta adota ferramentas de Mineração de Repositório de Software (MRS) para identificar as funcionalidades do software e em seguida as dívidas técnicas que afetam essas funcionalidades. Além disso, também propusemos uma abordagem para apoiar tarefas de manutenção guiadas pela visualização da DT em nível de funcionalidades com o objetivo de avaliar sua aplicabilidade em projetos de software real. Os resultados indicam que a abordagem pode ser útil para diminuir as DT’s existentes, bem como evitar a introdução de novas DT’s.

  • GLEISON DE ANDRADE E SILVA
  • Um Estudo sobre a Seleção Automática de Trabalhos em Revisões e Mapeamentos Sistemáticos da Literatura
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 12/09/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Quando se deseja iniciar uma nova pesquisa é essencial que se faça uma análise do atual estado da arte do tema de interesse. No entanto, garantir que essa análise seja completa e justa, sem que nenhum trabalho seja favorecido na análise, é uma tarefa difícil. Esta é a principal justificativa para a realização de uma Revisão Sistemática da Literatura (RSL) e de um Mapeamento Sistemático da Literatura (MSL). Existem diversos motivos para a realização de revisões/mapeamentos, dentre eles pode-se destacar: a necessidade de sumarizar toda evidência empírica sobre determinado tratamento ou tecnologia; identificar gaps na área de pesquisa e sugerir pontos de futura investigação. Apesar de seus benefícios, a condução desses trabalhos continua sendo um processo manual e de trabalho intensivo. Uma RSL/MSL requer bastante esforço e ferramentas que apoiam a sua execução são fundamentais para auxiliar em cada etapa, orientando a sua execução, organização, e consequentemente reduzindo o tempo necessário para sua conclusão. Existem esforços para automatizar etapas de uma RSL/MSL. Uma dessas abordagens é a aplicação de Aprendizagem de Máquina (AM) junto com a Mineração de Texto (MT) para auxiliar a Seleção de Estudos (SE). No entanto, nem todas as soluções propostas são transparentes e adequadas. Apesar das primeiras adaptações de RSLs na área de Computação, especialmente em Engenharia de Software (ES), terem ocorrido há mais de uma década, a perspectiva de boas ferramentas de apoio construídas com base em técnicas de MT é promissora, mas sua eficácia não foi totalmente explorada e testada. Este trabalho tem como principal objetivo a proposição de um método que visa reduzir o esforço e tempo de execução de Revisões e Mapeamentos Sistemáticos, com foco na fase de seleção inicial de estudos. Esse método utiliza características textuais de artigos, obtidas do título, resumo e palavras-chave, e de posse dessas características aplica-se técnicas de AM para classificar os artigos em aceitos ou rejeitados. Foram realizadas duas avaliações, a primeira visou identificar que configurações foram capazes de reduzir a quantidade de artigos a serem lidos, além disso, a redução da perda de artigos relevantes. Na segunda foi realizada uma comparação com uma ferramenta existente na literatura com o mesmo objetivo. Os resultados apontam que com uma pequena perda de estudos relevantes é possível reduzir em até 69% o trabalho realizado na seleção de trabalhos. Além disso, o método proposto obteve resultados significativos em relação à ferramenta a qual foi comparada.

  • KAROLINE DE MOURA FARIAS
  • Uso de Informação de Histórico de Beneficiários para Regulação em Saúde
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 10/09/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Regulação é um mecanismo de controle utilizado por uma Operadora de Plano de Saúde (OPS) com objetivo de minimizar o desperdício de recursos por meio da análise de solicitações realizadas pelos beneficiários. Normalmente as solicitações passam por uma avaliação administrativa que certifica se a solicitação cumpre parâmetros não-técnicos (carência, adimplência e outros). Além disso, passa por uma avaliação especializada com profissionais que ficam à disposição para análise técnica das solicitações. Uma das estratégias utilizadas para otimizar essa tarefa é o uso de um sistema que automatize parte desse processo por meio da utilização de aprendizagem de máquina (AM). O objetivo deste trabalho é aperfeiçoar o processo de aprendizagem supervisionada da regulação automatizada acrescentando informação do histórico de regulação dos beneficiários. Este estudo se baseia na ideia de que o histórico de beneficiários fornece informações relevantes sobre o processo de regulação, e, que possíveis solicitações posteriores, sigam de alguma forma um padrão baseado em solicitações antigas. A metodologia proposta utiliza três tipos de representação de informações: representação binária, term-frequency (TF) e term-frequency inverse document frequency (TF-IDF). Para cada uma dessas representações, são aplicados algoritmos de seleção de atributos (Consistency Subset Eval (CSE), Correlation Feature Subset (CFS), Wrapper Subset Eval (WSE), Informação de Ganho (IG), Razão de Ganho (RG) e Relief) e transformação de atributos (Principal Component Analysis (PCA), Kernel PCA, Independent Component Analysis (ICA) e Latent Semantic Analysis (LSA)). Na etapa de aprendizagem supervisionada são testadas os algoritmos classificação: Random Forest (RF), Naive Bayes (NB), K-nearest neighbors (KNN) e Support Vector Machine (SVM). Os resultados obtidos pelos classificadores são avaliados a partir das métricas acurácia, precisão, recall, índice kappa e precision-recall curve (PRC). A partir dos resultados também é avaliado se houve melhora significativa ou não, comparando os resultados da aprendizagem com e sem o histórico. Essa avaliação é realizada utilizando o teste de hipótese Z. Os resultados apontam uma melhora significativa com uso do histórico, em todos os classificadores testados, onde o melhor resultado obtido foi utilizando o classificador RF com representações TF e TF-IDF e seleção de atributos.

  • FELIPE SARAIVA DA COSTA
  • GeoASDVN: Protocolo Geocast ciente de obstáculos baseado em Redes Veiculares Definidas por Software
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 22/08/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Redes Veiculares (VANETs) tornam a comunicação entre veículos uma realidade. No entanto, problemas podem surgir devido aos nós que formam tais redes estarem em constante movimento, afetando o envio e recebimento de mensagens. Aplicações  de gerenciamento de tráfego, detecção de acidentes, entre outras, requerem que mensagens sejam disseminadas dentro de uma região específica, ao qual é dado o nome geocast. Tais aplicações recorrem ao auxílio de protocolos de disseminação que, por sua vez, estão sujeitos aos problemas encontrados nas VANETs, como fragmentação ou congestionamento da rede.  Existem trabalhos que sugerem o uso da abordagem SDN (Software Defined Network) no ambiente veicular, o que torna as VANETs mais adaptáveis e menos sucetíveis a problemas de confiabilidade. Essa abordagem também permite o uso de outras tecnologias de comunicação (4G, 5G, etc) em conjunto com o padrão WAVE, que são tecnologias e especificações desenvolvidas para comunicação veicular. As VANETs que utilizam SDN são chamadas SDVNs (Software Defined Vehicular Network) e seu conceito possibilita que a rede tenha acesso ao estado dos nós que a compõe. Neste contexto, uso de SDVN permite que protocolos de disseminação geocast possam atuar de forma adaptativa, escolhendo a melhor forma de atingir os nós da rede com base no estado em que ela se encontra. No âmbito deste mestrado foi proposto um protocolo geocast que faz uso da abordagem SDVN para disseminação dos dados. Neste documento é apresentada uma avaliação do protocolo em cenário realístico e comparado a outros procotolos da literatura. O protocolo proposto apresenta desempenho superior aos demais no que diz respeito ao alcance dos veículos, tempo de entrega e número de mensagens geradas.

  • SELLES GUSTAVO FERREIRA CARVALHO ARAUJO
  • Realocação de Circuito ciente dos Efeitos de Camada Física em Redes Ópticas Elásticas
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 12/08/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As redes ópticas elásticas (Elastic Optical Networks – EONs), utilizadoras da tecnologia OFDM (Orthogonal Frequency Division Multiplexing), têm se tornado alternativa promissora para lidar com o crescente tráfego de dados. As EONs proporcionam flexibilidade no atendimento de requisições com diferentes larguras de banda, permitindo eficiência na utilização dos recursos da rede. Os recursos para um novo circuito são alocados a partir de algoritmos RMLSA (Routing, Modulation Level and Spectrum Assignment). Estes algoritmos possibilitam a definição da rota, a escolha do formato de modulação e a seleção da faixa de espectro. Além disso, os circuitos devem apresentar qualidade de transmissão (Quality of Transmission – QoT) aceitáveis para operar. Quando os requisitos de alocação não são atendidos, as requisições de circuitos são bloqueadas. As principais causas de bloqueios, no cenário considerado, são devido as imperfeições de camada física (Physical Layer Imperfections – PLI). Para mitigar estes bloqueios, realocações de circuitos podem ser realizadas no intuito de reduzir as PLI em um ou mais enlaces, contribuindo para maior atendimento de requisições na rede. Neste contexto, esta dissertação propõe o uso de realocação de circuitos para redução de bloqueios por imperfeições da camada física, problema denominado como Circuit Reallocation aware of PLI (CR-PLI), e três estratégias de realocação para solucionar tal problema. As soluções são: R-RQoT (Realocação de Circuito para Redução de Bloqueios relacionados à QoT), CRS-PL (Circuit Reallocation Strategy - Physical Layer) e JOC (Just One Circuit Reallocation). As estratégias propostas foram comparadas entre si e com outra estratégia de realocação comumente utilizada na literatura. Para avaliação de desempenho, foram utilizadas as métricas de probabilidade de bloqueio de banda, probabilidade de bloqueio de circuito e número médio de circuitos realocados nas topologias USA e EON.

  • VALESKA DE SOUSA UCHÔA
  • Aumento de dados para reconhecimento facial com transferência de aprendizado de CNNs
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 09/08/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O reconhecimento facial é uma tarefa desafiadora de Visão Computacional. Nesta disserta- ção, é proposto um método para reconhecimento de faces aplicando aumento de dados e transferência de aprendizado de Redes Neurais Convolucionais (CNNs) pré-treinadas. O foco é analisar o poder do aumento de dados para melhorar o desempenho do sistema. Foram extraídas características das imagens para o treinamento de classificadores usando a CNN VGG-Face. Para uma base de imagens de entrada, são aplicadas várias transfor- mações gerando 12 versões diferentes da base de imagens de entrada, para avaliar qual combinação produz melhores resultados. Experimentos foram realizados usando o aumento de dados na base Labeled Faces in the Wild (LFW). Os testes mostraram que a acurácia para essa base chegou a 98.43%. Também foi criada uma base de dados proprietária composta por imagens de 12 indivíduos. Para essa base a melhor acurácia foi de 95.41%. A melhoria dos resultados com o método proposto leva a inferir que o aumento de dados é um passo essencial para a tarefa de reconhecimento facial. No entanto, como a operação de aumento que mais contribui com a melhora os resultados não é a mesma para as duas bases de entrada é necessário realizar esse estudo para cada aplicação.

  • LUCAS FERNANDES RIBEIRO
  • RENOIR - Uma Ferramenta para Geração de Configurações utilizando o algoritmo de Modulo Scheduling
  • Orientador : IVAN SARAIVA SILVA
  • Data: 05/08/2019
  • Mostrar Resumo
  • No momento atual, com o aumento na complexidade das aplicações , a quantidade de dados gerados vem crescendo rapidamente, exigindo-se um desempenho cada vez maior dos processadores. Pra lidar com essa crescente, arquiteturas reconfiguráveis(AR) surgem como uma atrativa solução. Ainda em meio ao aumento na quantidade de dados gerados e na complexidade das aplicações, nota-se que os laços presentes em algumas dessas aplicações são responsáveis por até 71% do tempo de execução do código. Otimizando-se esse tempo, é possível obter um ganho no tempo total de execução da aplicação, esse ganho de desempenho pode ser obtido com uso de software pipelining nos laços da aplicação. Este trabalho propõe o uso da técnica de software pipelining utilizando modulo scheduling em software para uma arquitetura reconfigurável de grão grosso. O algoritmo proposto foi implementado em um compilador com a linguagem de programação Java, que recebe como entrada uma aplicação desenvolvida na linguagem de programação Go e gera como saída o conjunto de instruções assembly MIPS. Para análise de resultados, cinco aplicações foram desenvolvidas. Os resultados obtidos mostram um bom mapeamento alcançado e que o ILP dos laços mais internos em algumas aplicações superam os 70% de ganho obtido

  • GILVAN VERAS MAGALHÃES JUNIOR
  • Estudo da Influência de Características Textuais no Processo de Automatização da Regulação Médica
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 27/06/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • No Brasil, um dos maiores problemas na área da saúde é a baixa capacidade de assistência dos hospitais públicos para uma grande demanda populacional. Em razão disso, brasileiros têm recorrido a saúde suplementar, atividade que envolve a operação de planos e seguros privados de assistência médica à saúde. Muitas empresas Operadoras de Planos de Saúde (OPS) enfrentam dificuldades financeiras devido a fraudes e/ou abusos na utilização dos serviços de saúde, como por exemplo, execução de procedimentos desnecessários. Com a finalidade de evitar gastos abusivos, as OPS começaram a utilizar um mecanismo chamado regulação, onde uma análise prévia da necessidade de cada usuário é feita para autorizar ou recusar as solicitações requeridas. Normalmente, uma empresa de porte médio recebe diariamente centenas de solicitações, as quais constam os dados pessoais e o quadro clínico do paciente. Assim, faz-se necessária a presença de especialistas para analisar cada solicitação e aprovar ou recusar, incluindo uma justificativa para a decisão. Porém, o gasto para manter uma equipe de especialistas de tamanho proporcional a demanda diária é alto. Por esse motivo as OPS têm buscado técnicas para realizar essa atividade de forma automática ou semiautomática. Este trabalho tem como objetivo estudar a influência do uso de características textuais na avaliação do processo de regulação automática de uma OPS por meio do uso de técnicas de Processamento de Linguagem Natural e Aprendizado de Máquina. Como este estudo possui um problema característico de classificação, foram realizados experimentos utilizando os classificadores KNN, J48, Naive Bayes (NB), Random Forest (RF) e SMO. As características do paciente e as informações textuais do quadro clínico foram utilizadas como entradas para criação do modelo para predizer qual classe um determinado conjunto de características pertence: aprovada ou recusada. Foram estudados diferentes grupos de palavras e os resultados dos experimentos apontam para o classificador RF como o melhor avaliado.

  • ÊNIO LUCIANO VIEIRA BARBOSA
  • Algoritmos IA-RMLSA utilizando Sistemas Fuzzy e a Redução de Interferência nos Circuitos nas Redes Ópticas Elásticas
  • Orientador : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: 14/05/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As redes ópticas elásticas mostraram-se promissoras para o futuro das comunicações ópticas, suportando a altas taxas de transmissões de dados. No entanto, alguns problemas, como: roteamento, escolha de modulação, alocação de espectro, fragmentação e interferências nos circuitos, devem ser solucionados para aproveitar amplamente os recursos da rede. Neste contexto, o principal objetivo deste trabalho é o desenvolvimento de duas novas propostas de algoritmos para a solução do problema RMLSA denominados de redução de interferências de circuitos com minimização de slots alocados (CIR-MAS – Circuit Interference with
    Minimum Allocation Slots) e Fuzzy-RQoTO (Fuzzy - Reduction Quality of Transmission Other circuits). O algoritmo CIR-MAS busca selecionar formato de modulação mais resistente a interferências dos circuitos ativos. Além disso, o algoritmo seleciona rota com o mínimo de slots alocados entre as soluções de rotas alternativas, a fim de reduzir o bloqueio causado pela degradação dos circuitos. Já o algoritmo Fuzzy-RQoTO, utiliza um sistema fuzzy para auxiliar na seleção da melhor rota (rota de qualidade) para um dado par (origem, destino), inferindo um grau de pertinência nas métricas fragmentação relativa e quantidade de slots ocupados. Um estudo de avaliação de desempenho foi realizado nas topologias NSFNet e EON comparando o desempenho do algoritmo CIR-MAS e Fuzzy-RQoTO com os algoritmos: K-Shortest Path Computation (KS-PC), Modified Dijkstra Path Computation (MD-PC) e K-Shortest Path com Redução do QoTO (KSP-RQoTO) já propostos na literatura. O algoritmo CIR-MAS e Fuzzy-RQoTO apresentou um ganho mínimo de 40,5% e 27,5% quando comparado ao KS-PC, em termos de probabilidade de bloqueio do circuito, respectivamente. Em termos de probabilidade de bloqueio de largura de banda, o CIR-MAS e Fuzzy-RQoTO apresentou um ganho mínimo de 37,5% e 21,9%
    quando comparado ao KS-PC, respectivamente. Adicionalmente, foi avaliada a eficiência energética dos algoritmos mencionados anteriormente.

  • DOUGLAS LOPES DE SOUSA MENDES
  • Mecanismo de Compressão de Dados para Medidores Inteligentes em um cenário de Smart Grid
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 12/04/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As redes elétricas inteligentes apresentam uma nova arquitetura para o sistema elétrico de potência onde, aliadas a novas tecnologias de informação e comunicação, visam garantir o atendimento à demanda requerida assegurando a qualidade, disponibilidade e confiabilidade no fornecimento de energia elétrica. Um dos seus principais componentes são os medidores inteligentes, equipamentos instalados junto aos consumidores, que possuem como função principal registrar informações relacionadas ao consumo. Os dados coletados são transmitidos para a concessionária de energia por meio de uma infraestrutura de comunicação bidirecional e são extremamente valiosos para a concessionária, pois por meio deles é possível prever a demanda de carga elétrica, detectar irregularidades, desenvolver novas políticas de tarifação, entre outros. No entanto, grande volume de dados trafegados pela rede em direção à concessionária podem ocasionar congestionamento na infraestrutura de comunicação, levando a perda de pacotes, aumento na latência, dentre outros problemas. Dessa forma, este trabalho propõe um mecanismo de compressão de dados adaptativo, baseado em ajuste de curvas, que é capaz de representar o perfil de consumo por meio de um modelo funcional. Tal mecanismo está associado ao medidor inteligente e tem como objetivo reduzir a quantidade de dados enviados pelo mesmo. Para avaliar o mecanismo proposto foram utilizados dados de consumo para diferentes perfis, extraídos da ferramenta Load Profile Generator onde os parâmetros passíveis de ajuste (limiar de erro e capacidade de buffer) foram estudados sob diferentes configurações, alcançando uma taxa de compressão de 0.0417. No entanto por utilizar ajuste de curva, o mecanismo proposto apresenta certo nível de imprecisão nos dados recuperados pelo modelo, o que pode prejudicar financeiramente o consumidor ou a concessionária de energia elétrica. Mesmo assim com a presença do limiar de erro é possível controlar o nível de imprecisão de modo que o impacto financeiro seja mínimo. Além disso, o custo associado à execução do mecanismo foi avaliado em um dispositivo com baixo poder computacional, bem como a viabilidade de integração do mecanismo proposto com outras funcionalidades presentes no cenário de gerenciamento pelo lado da demanda. Por fim, outro breve experimento analisou a aplicação de média móvel sob diferentes configurações para analisar a suavização de outliers que possam prejudicar o funcionamento do mecanismo.

  • JOSE CARLOS CORREIA LIMA DA SILVA FILHO
  • Método para Localização da Fonte de Afundamento de Tensão por Algoritmo de Clusterização e Rotulação por Regra de Decisão
  • Orientador : IVAN SARAIVA SILVA
  • Data: 09/04/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O distúrbio de afundamento de tensão corresponde a uma redução entre 0,9 e 0,1 p.u. do valor eficaz da tensão nominal por um curto período de tempo e são causados principalmente por curto-circuito no sistema de energia. Tais distúrbios, destacam-se como sendo a alteração da forma de onda que mais se manifesta nas redes elétricas, sendo que sua ocorrência ocasiona danos aos consumidores. Desta forma, apontar o local no sistema de distribuição de energia que está conectada a fonte causadora do distúrbio de afundamento de tensão é o primeiro passo para corrigir o problema. No entanto, esta tarefa não é trivial, uma vez que os afundamentos de tensão ocorrem em um curto intervalo de tempo e se propagam ao longo de todo sistema. Este trabalho tem como objetivo principal apresentar uma metodologia baseada em algoritmo de clusterização combinada com regra de decisão para apontar a região (cluster) de origem do afundamento de tensão. O algoritmo de clusterização é responsável por analisar os dados do sinal de tensão advindos de diferentes pontos de medição e separar esses dados em grupos, onde um deles agrega os locais próximos da região de ocorrência do distúrbio. Para tanto, foram avaliados sobre diferentes contextos a performance de 5 (cinco) algoritmos de clusterização, são eles: K-Means Clustering, Gaussian  Mixture Models (GMM) , Density Based Spatial Clustering of Applications with Noise (DBSCAN), Fuzzy C-means (FCM) e Agglomerative Hierarchical Clustering. Em seguida o algoritmo Partial Decision Trees (PART) é responsável por definir o conjunto de regra de decisão que irão confrontar as características de cada clusters e rotular qual grupo (cluster) agrega o local de origem do distúrbio. A metodologia proposta foi validada por meio de simulações de curto-circuito trifásico no Sistema IEEE 34 barras. Os resultados mostram que a abordagem proposta neste trabalho é promissora para ser empregada em smart grids, uma vez que apresentou resultados satisfatórios, apresentando em alguns cenários uma taxa de acerto maior que 90%. Portanto, a metodologia pode apoiar a decisão do corpo técnico para que ações corretivas venham a ser estabelecidas de forma assertiva.

     

  • SIDINEY DE SOUSA ARAUJO
  • Modelo de Classificação Fuzzy Baseado em Processo de Rotulação Automática de Grupos
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 09/04/2019
  • Mostrar Resumo
  • As técnicas de agrupamento e classificação de dados são frequentemente utilizadas com a finalidade de extrair padrões e classificar novos elementos. A combinação de tais técnicas pode ser aplicada em bases de dados em que não se conhece o atributo classe, utilizando a interpretação dos grupos obtidos no processo de agrupamento dos dados para identificação de um padrão que auxilie o processo de classificação. Esta interpretação, apesar de depender do problema abordado, requerendo por vezes o auxílio de um especialista, pode ser desempenhada por modelos de rotulação automáticos: modelos capazes de identificar características relevantes dos grupos e utilizá-las na formação de rótulos. Além da interpretação dos grupos a adição de outra técnica para classificação de novos elementos pode incrementar ainda mais o tempo de simulaçao. Baseado em modelos de rotulação automáticos e lógica Fuzzy, este trabalho propõe um modelo de classificação no qual os rótulos dos grupos são utilizados para formação de regras e funções de pertinência de um sistema Fuzzy. O modelo proposto foi avaliado comparando a acurácia, desvio padrão, índice Kappa e tempo de treinamento com de outros algoritmos de classificação, bem como analisado a quantidade de regras geradas pelos algoritmos. Para diferentes bases disponíveis no repositório UCI, os resultados para o índice Kappa foram acima de 0,8 considerados excelentes, com acurácia e tempo de treinamento similares aos de algoritmos encontrados na literatura.

  • LEONARDO PEREIRA DE SOUSA
  • Método de Identificação de Cédulas Monetárias para Deficientes Visuais
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 29/03/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Estima-se que atualmente existam no mundo cerca de 285 milhões de deficientes visuais,

    sendo 39 milhões cegos e 246 milhões com baixa visão. O uso de Tecnologias de Informação

    e Comunicação contribui para a independência, qualidade de vida e inclusão na vida

    social dos deficientes visuais, por meio do suplemento, manutenção ou devolução de suas

    capacidades funcionais. Cédulas monetárias ainda são o meio mais comum de pagamento

    e a maneira mais usada para a realização de transações pessoais, sendo manipuláveis por

    qualquer pessoa, inclusive deficientes visuais. A identificação de cédulas é uma das grandes

    dificuldades enfrentadas por portadores de deficiência visual, e com esse problema em

    mente alguns países utilizam uma marca tátil como orientação do valor correspondente a

    cada cédula. Porém, tal marca é considerada insuficiente por muitos deficientes visuais,

    devido ao desgaste na intensa movimentação da cédula. Nesse contexto, o presente trabalho

    apresenta um método de identificação de cédulas monetárias com a utilização de descritores

    locais. Nos testes foram utilizadas as cédulas de dólar, euro e notas brasileira de real.

    Para isso, foram construídas bases de imagens, composta por 1.008 imagens de cada

    valor de cédula, totalizando 6.048 imagens para cédulas de real e 7.056 imagens para

    as cédulas de dólar e euro. Foram avaliados quatro detectores de pontos de interesse

    (BRISK, FAST, MSER e SURF), dois descritores de características (BRISK e SURF),

    quatro métodos de assinatura da imagem (média, moda, mediana e BoVW), quatro

    classificadores (Radial Basis Function Networks, Random Tree, Multilayer Perceptron e

    Sequencial Minimal Optimization) e dois comitês de classificadores (Random Forest e um

    comitê formado pelos melhores classificadores testados: Radial Basis Function Networks,

    Multilayer Perceptron e Sequencial Minimal Optimization), que poderão ser utilizados

    como base para o desenvolvimento de aplicativos para a identificação de cédulas monetárias.

    Nos testes realizados, se obteve um índice Kappa excelente e valores de acurácia de 99,77%,

    99,12% e 96,95% em cédulas de dólar, euro e real, respectivamente.

  • JARDESON LEANDRO NASCIMENTO BARBOSA
  • Um Estudo Sobre as Características que Compõem a Percepção de Utilidade de Comentários Web Sobre Produtos
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 21/03/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com o crescimento da Internet, tornou-se comum que as pessoas publiquem suas opiniões online. Compartilhamos diariamente nossas opiniões a respeito de tudo. A partir dessas opiniões, surgiram os reviews de produtos online onde usuários podem publicar na Internet textos sobre suas experiências com produtos ou serviços. Reviews de usuários online ajudam futuros consumidores a tomarem uma decisão sobre a compra e podem também beneficiar os fornecedores do produto ou serviço. Entretanto, como milhares de reviews são publicados diariamente, seria interessante apresentar ao usuário uma lista ordenada com os reviews mais importantes. A propagação de reviews inúteis ou com informações falsas é outro problema para usuários e fornecedores. Para tornar a tarefa de ler reviews online mais agradável, foi desenvolvido um mecanismo em que os próprios usuários votam em reviews como úteis ou não úteis no processo de tomada de decisão de compra. Esse sistema está presente atualmente na maioria dos websites e á amplamente utilizado, porém não está isento de certos problemas. Algumas tendências a respeito do voto de utilidade de reviews online podem prejudicar a visualização de informações relevantes sobre o produto. Para resolver esse problema é necessário entender o que torna um review útil e, a partir desse conhecimento, desenvolver um sistema que identifique as características de utilidade de reviews de forma automática. Este trabalho descreve um estudo sobre os fatores que contribuem com a percepção de utilidade de reviews online, que inclui um modelo de regressão utilizando aprendizado de máquina supervisionado.  Diversos experimentos foram realizados para definir melhor topologia das Redes Neurais (MLP e RBF), bem como para determinar as melhores features. Os experimentos utilizaram dois Corpora nos domínios de e-jogos e smartphones. Os resultados indicam que a reputação e a expertise do autor, as opiniões e o tamanho do texto são as características mais importantes para a percepção de utilidade de reviews.

  • TARCÍSIO FRANCO JAIME
  • Uso de Algoritmos de Aprendizado de Máquina Supervisionado para Rotulação de Dados
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 28/02/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com o avanço da tecnologia, cada vez mais equipamentos estão se conectando nas redes, gerando fluxos e processamento de dados. Com isso, mais algoritmos de aprendizado de máquina estão sendo estudados para extraírem informações relevantes desses grandes volumes. Com o grande aumento desse fluxo de dados, a interpretação destes pode ser prejudicada, sendo o grau de dificuldade proporcional a esse crescimento. É nesse contexto que essa pesquisa atua, pois alguns algoritmos de aprendizado de máquina criam grupos de dados que possuem algumas características. Neste trabalho realizou-se uma pesquisa científica com o objetivo de identificar nesses grupos quais são os atributos mais significativos junto aos valores que mais se repetem a ponto de representar o grupo, denominando-se essa técnica de rotulação. Dessa forma, esta pesquisa utiliza a técnica algoritmos supervisionados, já implementados por um software de cálculo numérico (MATLAB), em que se pretende rotular grupos já criados em diferentes bases de dados, exibindo um resultado em porcentagem de acordo com o número de registros que são representados pelo rótulo criado. 

     

  • JOSELITO MENDES DE SOUSA JUNIOR
  • Modelo para Classificação de Fornecedores da Administração Pública Baseado em Aprendizagem de Máquina Supervisionada
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 27/02/2019
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Contratos públicos podem ser entendidos como ajustes realizados entre a Administração Pública e particulares, para a consecução de objetivos de interesse público, com regras e condições estabelecidas pela própria Administração. Em outras palavras, contratos públicos são realizados através de um modelo de compras públicas. No Brasil, respondem por mais de 19% do Produto Interno Bruto (PIB). O modelo de compras públicas passou, nas últimas décadas, por um processo de automação, com a criação do Portal de Compras Governamentais e a implantação de pregões eletrônicos. O crescimento do PIB nesse período foi acompanhado por uma elevação nos gastos públicos que reflete o aumento do número de contratos firmados e licitações ou compras diretas realizadas. Considerando o desafio das instituições de controle governamental brasileiras de garantir eficiência e regularidade desses processos, propõe-se neste trabalho um modelo computacional que utilize aprendizagem de máquina para a classificação de fornecedores públicos. De acordo com os relatórios de auditoria, os fornecedores podem ser classificados em alto risco, que são aqueles citados em algum relatório por envolvimento em algum tipo de fraude ou quebra contratual, ou baixo risco, que são aqueles fornecedores ausentes dos relatórios por não apresentarem envolvimento com fraude ou quebra contratual. Para o modelo proposto, baseado no problema de classificação binária, deverá aprender as características dos fornecedores considerados de baixo risco (bons) e dos fornecedores considerados de alto risco (ruins) e, com isso, classificar os novos fornecedores inseridos na base de dados dos fornecedores do TCE-PI. A base de dados utilizada foi fornecida pelo Tribunal de Contas do Estado do Piauí é composta pela união de dados presentes em outras bases, como na Receita Federal, no Tribunal Superior Eleitoral e no Portal da Transparência. Ela consta de 29.755 instâncias, sendo 6.073 delas consideradas como fornecedores de alto risco e 23.682 consideradas como fornecedores de baixo risco. Os atributos relacionados à base são dos tipos binário, real e string. A abordagem utilizada nesse trabalho baseia-se em selecionar e preparar os dados presentes na base de dados dos fornecedores para, em seguida, realizar-se uma etapa de testes e uma etapa de desenvolvimento. Na etapa de testes são realizados vários experimentos com a ferramenta WEKA para fazer uma análise do melhor algoritmo a ser utilizado no problema de classificação. Nessa etapa, definiu-se como a melhor solução utilizar o algoritmo J48, que apresenta taxa de classificação superior a 82%, podendo, em alguns casos, chegar a 94%. Na etapa de desenvolvimento, foi efetivada a implementação do algoritmo J48 e do Sistema de Avaliação de Fornecedores (SAF) como produto final da pesquisa aplicada ao problema de classificação dos fornecedores.

2018
Descrição
  • ARINALDO LOPES DA SILVA
  • Um Algoritmo Aprimorado de Controle Inteligente de Semáforo com Pelotões Veiculares Mais Acurados
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 20/09/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Os congestionamentos de trânsito nos grandes centros urbanos vêm aumentando a cada ano e prejudicando a mobilidade das pessoas. Além disso, causam stress aos motoristas, consumo excessivo de combustível e intensificam a degradação do meio ambiente por meio da emissão do dióxido de carbono (CO2). As interseções entre as vias são pontos que podem contribuir significativamente para o aumento dos congestionamentos de trânsito. O uso de semáforos nesses pontos pode ajudar a controlar o trânsito e reduzir os congestionamentos. A configuração de temporização desses semáforos também é um fator importante a ser considerado. Em geral, a maioria dos semáforos nas interseções opera de acordo com configurações de tempo fixo. Entretanto, os fluxos de veículos, em cada uma das vias de uma interseção, nem sempre possuem as mesmas características no decorrer do tempo. Para controlar o fluxo de veículos nas interseções de forma mais eficiente, é preciso que os semáforos operem de forma dinâmica, considerando informações de tráfego em cada uma das vias que ele controla. Uma das tecnologias utilizadas para obtenção dessas informações de tráfego pelos semáforos são as redes veiculares. As redes veiculares (VANETs - Vehicular Ad hoc Networks) são um tipo particular de rede móvel ad hoc onde cada veículo é dotado de uma OBU (On Board Unit), que periodicamente envia informações na rede. Além disso, um semáforo pode operar como uma RSU (Road Side Unit) que permite a recepção das informações enviadas pelas OBUs. Utilizando redes veiculares, este trabalho apresenta um algoritmo de controle inteligente de semáforo reformulado a partir de um aperfeiçoamento da melhor solução encontrada na literatura até então, o ITLC (Intelligent Traffic Light Controlling). O ITLC escalona pelotões de veículos, delimitados por uma área virtual no entorno de um semáforo, para cruzar a interseção conforme suas características de tráfego. As melhorias deste trabalho incidem na forma como os pelotões de veículos são formados e atualizados em relação ao ITLC original. A partir de experimentos realizados em ambiente simulado, verificou-se que o tempo médio de espera dos veículos no semáforo, utilizando o algoritmo aprimorado, foi 12% menor que o ITLC nos cenários com maior demanda de tráfego e aproximadamente 30% menor nos cenários com menor demanda de tráfego. Também foram observadas reduções na emissão média de CO2 pelos veículos, bem como na média de pacotes transmitidos pelos mesmos em relação ao ITLC. A vazão de veículos no semáforo também foi aumentada em pelo menos 4% em todos os cenários com o algoritmo aprimorado. 

     

     

  • JOÃO PAULO ALBUQUERQUE VIEIRA
  • Análise de Métodos de Extração de Aspectos em Opiniões Regulares
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 05/09/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • No contexto do constante crescimento da Web, diversos serviços foram virtualizados, incluindo o surgimento do comércio eletrônico (e-commerce). Tanto tradicionalmente quanto por meio de e-commerce, as pessoas necessitam comparar produtos e serviços para nortear suas decisões por meio da análise das características desejadas. A mudança que a Web ocasionou foi a exposição de suas opiniões em sites de compra e venda, fóruns na Web, redes sociais ou ainda grupos de discussão, permitindo sua visualização por qualquer pessoa que necessite. Porém, com o crescimento explosivo da Web e da quantidade de dados gerada diariamente, uma análise manual dessas informações tornou-se impossível, tendo promovido o surgimento da área de Mineração de Opiniões. Um sistema de Mineração de Opiniões consiste em identificar, classificar e sumarizar as opiniões em descrições textuais de consumidores sobre produtos ou serviços. Na literatura, existem diversas abordagens utilizadas na identificação de opiniões para extrair a entidade alvo e seus aspectos, a saber: i) extração baseada em frequência; ii) extração baseada nas relações sintáticas; iii) extração usando aprendizado supervisionado; e iv) extração usando modelos de tópicos. Este trabalho apresenta uma análise comparativa entre as principais abordagens usadas na tarefa de Extração de Aspectos em relatos sobre produtos e serviços em sites Web. Nessa Dissertação foram implementadas adaptações de quatro métodos de extração de aspectos e avaliados em dois Corpora distintos, sendo um em português e outro em inglês. Nos experimentos realizados observou-se que o método usando aprendizado supervisionado (redes neurais convolucionais) obteve melhores resultados sobre os demais.

  • RAFAEL FONTINELE RIBEIRO
  • Descoberta de Problemas de Usabilidade em Aplicações Web a partir da Detecção Automática de Usability Smells
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 29/08/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As aplicações Web têm passado por um grande e rápido crescimento nos últimos anos, tornando-se parte do nosso dia a dia. As grandes empresas utilizam essas aplicações para fornecer seus serviços, assim, para que os usuários se sintam estimulados a utilizá-las, é preciso garantir o desenvolvimento de aplicações de qualidade. Um dos atributos essenciais de uma aplicação Web, que determina diretamente seu sucesso ou fracasso, é a usabilidade. Esse atributo mede o quão adequada ao uso é a aplicação, tendo sido desenvolvidos diversos métodos para avaliá-lo. As avaliações de usabilidade têm como objetivo evidenciar os problemas de usabilidade da aplicação, facilitando a correção dos mesmos e, consequentemente, melhorando a usabilidade. O método de avaliação de usabilidade mais popular é o teste laboratorial, por conseguir avaliar diretamente os sentimentos dos usuários ao interagir com a aplicação final. Entretanto, a realização desse teste acarreta um alto custo e complexidade, devido necessidade de organização do ambiente laboratorial, convocação de participantes, avaliação de resultados subjetivos, etc. Assim, com o objetivo de simplificar a realização dessa avaliação e facilitar a descoberta de problemas de usabilidade, este trabalho propõe uma abordagem para a detecção automática de indicativos de problemas, também conhecidos como usability smells. Essa abordagem é baseada na captura da interação do usuário em contexto de produção, ou seja, com o mesmo realizando suas atividades diárias livremente, e na análise automática dessa interação. De acordo com os padrões de ações analisados, a abordagem propõe a aplicação de algoritmos específicos para a detecção de usability smells, que os identificam e reportam informações importantes a respeito das detecções, visando facilitar a localização da origem do problema. Cada um dos smells propostos foi catalogado em termos de fundamentação, forma de detecção e refactoring sugerido. Uma avaliação realizada com a abordagem, demonstrou que os smells indicados por ela foram capazes de auxiliar na detecção e correção de problemas de usabilidade concretos em uma aplicação real. Apesar de não ser capaz de substituir completamente o teste laboratorial tradicional, realizado por avaliadores experientes, a abordagem proposta pode complementá-lo, auxiliando a detecção de problemas que são mais evidentes ao se analisar grandes conjuntos de dados, ou mesmo servir como uma alternativa em casos onde o custo financeiro e a demanda de tempo são restrições mais severas.

  • HUGO SANTOS PIAUILINO NETO
  • Descritores Locais e Bag of Features na Classificação de Placas de Trânsito
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 29/08/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A área de Intelligent Transportation Systems surgiu como um esforço para tornar o transporte mais seguro, confiável e eficaz ao empregar diversas metodologias computacionais em ambientes de transporte. Uma das ramificações mais notáveis nessa área é o desenvolvimento de Driver Support Systems (DSS’s) com o objetivo de promover segurança e aprimorar as habilidades do condutor humano. DSS’s podem atuar como copilotos, monitorando continuamente o ambiente, fornecendo ao condutor informações atualizadas das variáveis monitoradas e destacando possíveis ameaças à segurança. Além disso, podem executar, parcialmente ou totalmente, algumas tarefas anteriormente praticadas apenas por seres humanos. Uma das principais ações executadas por condutores, durante o pro- cesso de deslocamento, é o reconhecimento da sinalização de trânsito presente na via. Por diversas vezes, condutores não respeitam a sinalização por desatenção ou por estarem em situações de tráfego intenso. Em momentos semelhantes, DSS’s que reconheçam placas de trânsito podem fornecer informações cruciais que poderiam ser ignoradas pelo condutor humano. Este trabalho propõe um modelo de classificação de placas de trânsito com a utilização de descritores locais e Bag of Features. Para a composição do modelo proposto foram utilizados os detectores de pontos de interesse SIFT e FAST, os descritores de características SIFT e BRIEF, os algoritmos de agrupamento K-Means e Mini Batch K-Means e os classificadors SVM multiclasse com abordagem One-vs-One e One-vs-All. O modelo proposto foi treinado em bases de imagens de placas de trânsito da Alemanha, Bélgica e Brasil, onde apenas placas que não possuem informações essencialmente por texto foram consideradas. Para a realização dos testes, o modelo treinado foi executado e as métricas de avaliação de desempenho resultantes foram analisadas. Os melhores resultados obtidos foram nas combinações compostas por algoritmos de tempo real, retornando uma acurácia máxima de 84,27% na base de placas de trânsito da Alemanha, 96,67% na base de placas de trânsito da Bélgica e 94,43% na base de placas de trânsito do Brasil. Os índices Kappa obtidos pelos melhores resultados de cada base de imagens foram considerados “Excelentes”.

  • FRANCISCO VANDERSON DE MOURA ALVES
  • Uma Análise da Familiaridade de Código entre as Perspectivas de Módulo e Funcionalidade
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 28/08/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Durante as atividades de manutenção de software, especialmente evolutivas, corretivas e perfectivas, gerentes ou líderes de projetos geralmente realizam a distribuição de tarefas com base na relação que cada desenvolvedor possui com o código fonte associado, ou seja, quanto maior a relação entre um determinado desenvolvedor e o código fonte associado, maior será a probabilidade desse desenvolvedor assumir o desenvolvimento. Contudo, é comum que gerentes de projetos não tenham uma noção real de como está a relação entre desenvolvedores e o código fonte relacionado à cada tarefa a ser desenvolvida. Em um estudo (dissertação de mestrado) anterior, foi proposto um método baseado em Mining Software Repositories (MSR) para obter a familiaridade de código dos desenvolvedores, a partir da mineração de dados de repositórios de software. O cálculo da familiaridade é feito considerando a perspectiva de módulo (pacote) ou arquivo. Neste trabalho, é proposta uma abordagem baseada no método citado anteriormente, para inferência da familiaridade de desenvolvedores, considerando também uma nova perspectiva: funcionalidade de software. Algumas das principais etapas da abordagem proposta visam identificar funcionalidades de software e unidades computacionais (arquivos de código) que compõem cada funcionalidade identificada, com base na utilização de técnicas de Reverse Engineering (RE). Um dos objetivos principais deste trabalho é a realização de uma análise da familiaridade de código considerando as perspectivas de módulo e funcionalidade. Neste estudo foi realizado também, um Mapeamento Sistemático da Literatura (MSL) que apresenta um overview da área de inferência da familiaridade e outros tipos de relação entre desenvolvedor e código fonte por meio de técnicas baseadas em MSR. Por fim, foi realizada neste trabalho, uma avaliação em duas etapas. Na primeira fase a abordagem proposta foi avaliada no processo de identificação de funcionalidades e arquivos relacionados. Por meio da análise de sistemas reais, pôde-se constatar que a abordagem obteve um desempenho satisfatório durante esse processo. Durante a segunda etapa de avaliação da abordagem foi realizada a inferência e análise da familiaridade de código entre desenvolvedores considerando a perspectiva de módulo e funcionalidade. Os resultados mostram que uma visão por funcionalidade fornece informações importantes a respeito da familiaridade de código. 

     

     

  • EUGÊNIO SOUZA CARVALHO
  • COGNITE - Um framework para construção de geradores de código para arquiteturas multi-core
  • Orientador : IVAN SARAIVA SILVA
  • Data: 27/08/2018
  • Mostrar Resumo
  • O processo de desenvolvimento de hardware e software antes sequêncial foi substituído por um modelo de desenvolvimento concorrente. Isso decorre do contínuo crescimento da complexidade dos sistemas e do encurtamento da janela de time-to-market. Projetos de hardware quase sempre resultam em novos paradigmas, bem como na inserção de instruções não suportados em compiladores convencionais. O objetivo desta dissertação é apresentar o framework COGNITE, detalhando o conjunto recursos da API e o padrão a ser adotado para a implementação de um compilador utilizando o framework. O foco principal deste trabalho é disponibilizar uma infraestrutura que acelere o desenvolvimento de geradores de código para validação de projetos de hardware. Foram expostos casos de uso reais e os métodos empregados para validar e avaliar tanto o framework quanto o código gerado. Os resultados mostram que o código gerado apresenta desempenho semelhante ou superior em alguns dos critérios analisados quando comparado com o compilador Gnu GCC Cross-Compile, embora a maior aquisição tenha sido a facilidade e flexibilidade no que se refere a construção de geradores para novas arquiteturas alvo e ferramentas de análise para os códigos gerados.

  • RONYÉRISON DANTAS BRAGA
  • Um Estudo Pratico sobre a Automação em Oráculos de Testes
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 24/08/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A computação tem sido utilizada para apoio à solução de problemas nas mais diversas áreas de conhecimento, tais como, medicina, biologia, matemática, mecânica, administração, economia, etc. Inúmeras aplicações têm sido desenvolvidas para auxiliar o ser humano na realização de tarefas que antes eram realizadas de forma manual, tais como, aplicações para identificação de anomalias em imagens médicas (medicina), aplicações para previsão de valores de ações no mercado financeiro (economia), aplicações para gestão patrimonial

    (administração), dentre outras. Entretanto, para garantir a confiabilidade das aplicações para solução de tais problemas é preciso que elas passem por uma etapa essencial no processo de desenvolvimento de software, o Teste de Software.

     

    O Teste de Software é uma das atividades que se concentra na gestão da qualidade de software, e pode ser definido como um conjunto de tarefas, planejadas e executadas sistematicamente com o propósito de descobrir erros cometidos durante a implementação dos softwares. Uma das tarefas mais complexas e custosas relacionada ao Teste de Software é o mecanismo popularmente conhecido como Oráculo de Testes. Dada uma determinada entrada para uma aplicação, a difícil tarefa de distinguir o comportamento correto para o comportamento potencialmente incorreto da aplicação é chamado de “Problema do Oráculo de Teste”. Geralmente, essa atividade é realizada de forma manual por um desenvolvedor ou testador da aplicação, tornando-se um garlalo na realização de testes de software.

     

    Considerando esse contexto, é proposta neste trabalho uma abordagem, para automação do mecanismo de oráculo de testes. Essa proposta traz consigo a inovação na forma como a atividade é realizada e torna-se uma alternativa para as pesquisas já existentes dessa área. Foi realizado um Mapeamento Sistemático de Estudos (MSE) com o objetivo de identificar na literatura os principais trabalhos dessa linha de pesquisa. A realização desse MSE foi a base para a definição da abordagem proposta no trabalho, pois ajudou a posicionar a pesquisa identificando os principais interesses da área e como o problema tem sido atacado em novos trabalhos. Após a realização de um estudo da área, foi proposta uma nova abordagem para automação do oráculo de testes. Três experimentos foram executados com aplicações Web para avaliar a abordagem proposta. Os dois primeiros experimentos foram realizados com uma aplicação fictícia, de forma que: no primeiro experimento, as falhas foram inseridas de forma aleatória e no segundo as falhas foram inseridas no código da aplicação por um desenvolvedor. O terceiro experimento foi realizado com uma aplicação real de grande porte com o objetivo de assegurar os resultados obtidos nos dois primeiros experimentos. Os resultados obtidos em todos os experimentos apresentaram indicações da aplicação da abordagem proposta na solução do problema.

  • FRANCISCO CARLOS SILVA JUNIOR
  • DREAMS – Um Array Reconfigurável Dinâmico para Sistemas Multiprocessadores
  • Orientador : IVAN SARAIVA SILVA
  • Data: 14/08/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Observa-se nos dias atuais que os sistemas embarcados estão cada vez mais heterogêneos. Diferentes funcionalidades são integradas em um mesmo dispositivo. Juntamente com essa heterogeneidade, as aplicações executadas nesses dispositivos estão cada vez mais complexas. Processadores convencionais (Processadores de Propósito Geral ou Processadores de Aplicação específica) são capazes de fornecer desempenho ou flexibilidade, mas não ambos. Nesse cenário, há uma busca por soluções arquiteturais que possam fornecer desempenho e maior flexibilidade aos dispositivos processantes. Arquiteturas reconfiguráveis já se mostraram como uma solução arquitetural com maior flexibilidade que os processadores convencionais e capazes de aumentar desempenho em ambientes single core. Contudo, nos dias atuais, as arquiteturas multicore são dominantes no mercado de processadores. Com isso, é necessário rever o modo como as arquiteturas reconfiguráveis são concebidas e utilizadas. Tradicionalmente, em ambientes single core, uma arquitetura reconfigurável (geralmente formada por um array de unidades funcionais) é acoplada ao processador, gerando-se considerável custo adicional em área. Portanto, migrar as arquiteturas reconfiguráveis tradicionais para um ambiente multicore geraria grande overhead de área. Dentro deste contexto, este trabalho propõe uma arquitetura adaptável para processadores multicore. Arquitetura adaptável é um modelo arquitetural derivado de arquiteturas reconfiguráveis. A diferença entre esses dois modelos está no modo como a reconfiguração é realizada. Enquanto que na arquitetura reconfigurável o hardware é modificado, na arquitetura adaptável o hardware é programado utilizando-se unidades funcionais disponíveis na arquitetura. A arquitetura proposta possui apenas 1 coluna com 6 unidades funcionais por núcleo. Deste modo, diminui-se consideravelmente o custo adicional em área devido ao uso da arquitetura adaptável no sistema multicore. A arquitetura proposta oferece recursos computacionais para acelerar múltiplas threads (ou processos) executando simultaneamente em diferentes núcleos de um processador multicore. Essa arquitetura inclui um tradutor binário que converte, em tempo de execução, sequências de instruções executadas em um núcleo do processador, para serem executadas na arquitetura adaptável. O tradutor binário provê compatibilidade de software e faz o mecanismo de reconfiguração da arquitetura ser totalmente transparente. Além do tradutor binário, também será possível gerar configuração via compilador. A arquitetura proposta foi implementada utilizando SystemC e possui componentes descritos em RTL (Register Transfer Level) e TLM (Transaction Level Modelling). Sua validação foi realizada através de um subconjunto do benchmark ParmiBench, uma aplicação de multiplicação de matriz e de um filtro laplaciano. Para análise de desempenho, foi feita uma comparação da execução da arquitetura proposta com a execução em um processador MIPS com 4 núcleos. Os resultados obtidos mostram o potencial de aceleração que a arquitetura pode alcançar em ambientes multicore. Além disso, mostra a possibilidade da arquitetura explorar tanto ILP(Instruction Level Parallelism) quando o TLP (Thread Level Paralelism) por intermédio do compartilhamento dos elementos de processamento entre os nucleos

  • ISMAEL DE HOLANDA LEAL
  • Diagnóstico de câncer de mama utilizando abordagem de Aprendizado Profundo e Descritores de Textura
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 09/07/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O câncer de mama é apontado como a principal causa de morte entre as mulheres. Sua ocorrência aumenta consideravelmente todos os anos. O diagnóstico dessa doença de forma precoce está diretamente relacionado às chances de cura. Uma das formas de auxílio ao profissional de saúde na identificação e diagnóstico é o uso de Sistemas de Detecção e Diag- nósticos Auxiliados por Computador (Computer Aided Detection/Diagnosis). Este trabalho propõe uma metodologia para discriminação de padrões de malignidade e benignidade em imagens mamográficas, através das características extraídas pelos Índices de Diversidade Filogenética. A região de interesse foi extraída através de uma Rede Neural Convolucional, com base na arquitetura da rede U-Net. Para a classificação, visando diferenciar as imagens malignas e benignas, utilizou-se os classificadores Random Forest, J48, LMT e a Máquina de Vetor de Suporte (MVS). A metodologia apresentou bons resultados na classificação tendo o classificador Random Forest o melhor desempenho entre todos. O resultado foi comparado com alguns trabalhos relacionados e com os resultados do especialista.

  • MARTONY DEMES DA SILVA
  • Ambiente Digital para Ensino e Acompanhamento Personalizado de Estudantes com Autismo
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 05/07/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • De acordo com a literatura, o uso de softwares de computadores fundamentado na Análise do Comportamento Aplicado (ABA) favorece o ensino de habilidades importantes para desenvolvimento de crianças com TEA. Diante disso, o software mTEA é proposto no âmbito desta dissertação de mestrado. O mTEA é uma ferramenta que auxilia o profissional educador na elaboração de atividades de ensino personalizadas, de acordo com as necessidades de cada estudante com TEA. O mTEA viabiliza a elaboração, aplicação e análise dos resultados das atividades de ensino. No início deste trabalho de mestrado, foi realizado um mapeamento sistemático da literatura que apontou a deficiência de ferramentas com tais características. O mTEA foi avaliado no processo de ensino de crianças com TEA. Essa avaliação foi realizada com 5 crianças e 2 profissionais de equipe multidisciplinar. De acordo com os profissionais que participaram do experimento, o mTEA facilitou aplicação das atividades. Além disso, possibilitou elaborar atividades de acordo com desempenho da criança e os relatórios otimizam a análise dos dados de cada criança com TEA.

     

     

     

     

  • FRANCISCO DAS CHAGAS IMPERES FILHO
  • Rotulação de Grupos em Algoritmos de Agrupamento Baseados em Distância Utilizando Grau de Pertinência
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 13/04/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • No campo da Inteligência Artificial (IA) um tópico vem ganhando destaque nos últimos anos: o agrupamento de dados. Por esse motivo, vem sendo considerado um item relevante na subárea de Aprendizagem de Máquina (AM), mas especificamente aprendizagem não supervisionada. O problema relacionado ao agrupamento (clustering) é abordado com frequência em muitos trabalhos de cunho científico, entretanto a compreensão dos grupos (clusters) é tão importante quanto a sua formação. Definir grupos pode auxiliar na interpretação e, consequentemente, direcionar esforços para tomadas de decisões mais acertadas levando em consideração as peculiaridades de cada grupo formado. Devido a problemática relacionada a encontrar definições, ou rótulos, capazes de identificar cada grupo de forma fácil, este trabalho descreve um modelo que elabora rótulos utilizando um algoritmo não supervisionado baseado em distância para encontrar características relevantes nos elementos de cada grupo e modelar faixas de valores que identificam os grupos de forma única. Para avaliar o desempenho, o modelo produziu rótulos para grupos de uma base de dados bem difundida na literatura e foi submetido a uma análise comparativa com outro modelo de rotulação, que aborda a mesma temática desse trabalho. Os rótulos produzidos conseguiram representar um grande número de elementos, apresentando assim um bom resultado. Na análise comparativa, o modelo conseguiu produzir rótulos de forma eficiente, permitindo uma fácil interpretação das definições geradas. Os experimentos realizados demonstram que o modelo proposto é capaz de construir rótulos para a identificação dos grupos, melhorando assim a compreensão dos grupos fornecidos.

     

     

  • VITOR AUGUSTO CORREA CORTEZ ALMEIDA
  • Uma biblioteca para manipulação de dados contextuais em jogos pervasivos móveis.
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 12/04/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Um jogo pervasivo móvel pode ser definido como uma aplicação sensível ao contexto direcionada para plataformas móveis como, por exemplo, smartphones. Consequentemente, o desenvolvimento de jogos desse gênero apresenta desafios técnicos relacionados aos domínios das aplicações móveis e da computação sensível ao contexto. A possível existência de erros, imprecisões e incertezas nos dados contextuais usados pelas aplicações sensíveis ao contexto é uma limitação inerente dos sensores empregados para realizar medições. Por esse motivo, o desenvolvedor de aplicações sensíveis ao contexto precisa lidar com a incerteza apresentada pelos valores sensoreados para assegurar a estabilidade do comportamento da aplicação. Este trabalho apresenta como proposta uma biblioteca voltada para a manipulação dos dados contextuais no desenvolvimento de jogos pervasivos móveis. A biblioteca é baseada em um modelo conceitual orientado a objetos que define um conjunto de entidades para representar as informações contextuais ao longo dos processos de aquisição e interpretação do contexto determinados pelo modelo. Especificamente, essa biblioteca deve ser capaz de encapsular e abstrair detalhes do processamento de dados contextuais, dividir em módulos as tarefas de aquisição, tratamento e utilização do contexto, e oportunizar a reutilização de código referente à manipulação e a representação dos dados contextuais. As contribuições desta pesquisa são: a formulação de um modelo conceitual para representar dados contextuais; a especificação e implementação de uma biblioteca baseada no modelo proposto para auxiliar o desenvolvimento de jogos pervasivos móveis; e a execução de um estudo experimental, de acordo com recomendações da Engenharia de Software Experimental, para avaliar como a biblioteca proposta pode beneficiar desenvolvedores de jogos pervasivos móveis. Os resultados do experimento indicam que soluções desenvolvidas com o apoio da biblioteca são menos extensas e mais simples, porém, não foram encontradas diferenças significantes no tempo de desenvolvimento e na percepção de qualidade. A biblioteca proposta por este trabalho foi intitulada Gamepad.

     

     

     

  • NAYARA HOLANDA DE MOURA
  • Combinação da regra ABCD e CNN’s Pré-treinadas no Diagnóstico Automático de Melanoma
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 04/04/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Melanoma é um tipo maligno de lesão de pele, e atualmente está entre os tipos de câncer existentes mais perigosos. Entretanto, o diagnóstico precoce dessa doença proporciona ao paciente uma maior chance de cura. Neste cenário, métodos computacionais para processamento e análise de imagens de lesão de pele têm sido estudados e desenvolvidos para auxiliar os profissionais da área médica. Esses métodos pretendem possibilitar ao profissional uma facilidade e rapidez em relação ao diagnóstico da patologia através da interpretação de imagens médicas. Neste trabalho desenvolve-se um método computacional visando auxiliar os médicos dermatologistas no diagnóstico de lesões de pele em melanoma ou não-melanoma por meio de imagens dermatoscópicas. Com este método pretende-se classificar as lesões de pele utilizando um descritor híbrido. Esse descritor é obtido a partir da combinação da regra ABCD (Assimetria, Borda, Cor e Diâmetro) e Redes Neurais Convolucionais (CNNs): CaffeNet, Vgg-m, Vgg-verydeep-19, Vgg-f e Vgg-s. Além disso, é realizado nesse descritor híbrido uma seleção de atributos com o algoritmo Gain Ratio Information. As características extraídas das imagens são utilizadas como entradas para o classificador MLP (MultiLayer Perceptron). Foram utilizadas imagens de lesão de pele de 2 bases de imagens públicas: PH² e DermIS. O resultado obtido na classificação foi uma taxa de acerto igual a 94,9% e um índice Kappa de 0,8944.

  • ALINE MONTENEGRO LEAL SILVA
  • Descoberta de Conhecimento através de Métodos de Aprendizagem de Máquina Simbólicos aplicados ao Ensino a Distância da Universidade Federal do Piauí
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 23/03/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Os cursos superiores na modalidade a distância tiveram um grande crescimento quantitativo na última década. Frente a esse crescimento, surge a preocupação com a qualidade do ensino e consequentemente com a performance acadêmica dos alunos. Com o intuito de identificar os perfis dos estudantes dessa modalidade educacional, especialmente dos cursos de Licenciatura em Computação, Sistemas de Informação e História, o presente trabalho exibe um processo de descoberta de conhecimento através de métodos de Aprendizagem de Máquina (AM) supervisionados aplicados ao ensino superior a distância, mais especificamente à base de dados do SIGAA/UFPI, cujos registros foram coletados nas duas últimas entradas do vestibular da Universidade Aberta do Brasil. Neste processo de descoberta de conhecimento, realizou-se a identificação de perfis a partir de uma correlação entre o Índice de Rendimento Acadêmico (IRA) e os aspectos sociais desses alunos. Foram utilizados três algoritmos de AM supervisionados com o paradigma simbólico: J48, RandomTree e SimpleCart. Observou-se que o J48 obteve a melhor performance dentre os algoritmos aplicados, exibindo regras de produção bastante concisas que melhor representam a correlação do IRA com os demais atributos. Os perfis descobertos tendem a auxiliar os gestores do sistema de educação a distância na tomada de decisões em relação a melhorias no processo de ensino-aprendizagem, já que através da mineração de dados teve-se uma ideia do desempenho do aluno, ao mostrar que a deficiência acadêmica possui correlações com aspectos sociais. A partir dessas informações é possível definir-se estratégias diferenciadas em relação a esses alunos, como por exemplo, um acompanhamento presencial por parte dos tutores nos polos de apoio do sistema de educação a distância ou a implantação de um curso de nivelamento.

  • MAÍLA DE LIMA CLARO
  • Metodologia para Identificação de Glaucoma em Imagens de Retina
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 22/03/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Glaucoma é uma doença ocular que danifica o nervo óptico causando a perda da visão. Considerada a segunda principal causa de cegueira no mundo, ficando atrás apenas da catarata. Com o objetivo de auxiliar especialistas no diagnóstico desta doença, sistemas de auxílio por computador são utilizados para reduzir a possibilidade da prescrição de tratamentos inadequados. Assim, vem sendo desenvolvidos sistemas de diagnóstico automático de glaucoma. Contudo é possível realizar melhorias nestas técnicas, visto que, os sistemas atuais não lidam com uma grande diversidade de imagens. Existem duas regiões das imagens da retina que são de suma importância para a detecção do glaucoma, sendo elas, as regiões do disco óptico e da escavação. Este trabalho apresenta uma nova metodologia para criação de um sistema de diagnóstico do glaucoma aplicado nas imagens da retina. Será aplicado descritores de textura e Redes Neurais Convolucionais (CNNs) nas imagens da retina sem segmentação (imagem original) e em imagens segmentadas na região do disco óptico. As características obtidas são selecionadas de acordo com a sua razão de ganho de informação. O sistema proposto tem como objetivo ser capaz de classificar corretamente imagens com diferentes características advindas de diferentes bases de imagens. Os resultados mostraram que a junção dos descritores GLCM e CNNs e a utilização do classificador Random Forest são promissores na detecção dessa patologia, obtendo uma acurácia de 93,35% em 873 imagens de 4 bases de dados públicas.

     

     

     

     

     

     

  • FRANCISCO NETO CARVALHO DE ARAÚJO
  • Rotulação Automática de Clusters Baseados em Análise de Filogenias
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 19/03/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O agrupamento (clustering) é uma das principais técnicas de reconhecimento de padrões. Esta técnica consiste em organizar os elementos de um determinado conjunto em grupos (clusters) levando em consideração alguma métrica que permita determinar a semelhança em eles. Esses conjuntos de dados (data sets) frequentemente descrevem os elementos que os compõem por meio de atributos que podem assumir valores de diversos tipos, exigindo métodos eficientes na tarefa de detectar correlações entre dados de tipos complexos (ou mistos). No entanto, o processo de clustering não fornece claras informações que permitam inferir as características de cada cluster formado, ou seja, o resultado do processo de clustering não permite que os clusters tenham seu significado facilmente compreendido. A rotulação de dados visa identificar essas características e permitir então que se tenha a plena compreensão dos clusters resultantes. Neste trabalho propõe-se a utilização em conjunto de métodos de Aprendizagem de Máquina não supervisionada e supervisionada para as tarefas de agrupamento e rotulação de dados, respectivamente. Para tanto foram utilizados algoritmos reconhecidamente eficientes. Os algoritmos DAMICORE (SANCHES; CARDOSO; DELBEM, 2011) e sua nova versão, o DAMICORE-2 foram utilizados para forma clusters que posteriormente foram submetidos ao método de rotulação automática de clusters MRA (LOPES; MACHADO; RABÊLO, 2016), obtendo resultados satisfatórios nas definições dos clusters formados, frequentemente superando taxas de acerto de 90% nos experimentos realizados.

     

     

  • LUÍS GUILHERME TEIXEIRA DOS SANTOS
  • Seeded Fuzzy C-means: um algoritmo de agrupamento semissupervisionado aplicado à segmentação de imagens médicas
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 16/03/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A segmentação de imagens médicas tem um grande número de aplicações no diagnóstico de doenças, como glaucoma, melanoma etc. Mas a segmentação automática destas imagens não é uma tarefa fácil. Para resolver esse problema, algumas técnicas baseadas em classificação não supervisionada e supervisionada têm sido desenvolvidas na literatura. Mas as técnicas de classificação supervisionada são mais demoradas e sensíveis ao custo devido à exigência de dados rotulados suficientes. Em contraste, técnicas de classificação não supervisionada atuam sem usar qualquer informação prévia, mas sofrem dos problemas de armadilhas locais. Assim, para superar os problemas associados às técnicas de classificação não supervisionadas e supervisionadas, propusemos um novo algoritmo de agrupamento semissupervisionado chamado Seeded Fuzzy C-means (SFc-means), usado para segmentar regiões de interesse em imagens médicas. O SFc-means é  baseado em lógica fuzzy e usa poucos dados fornecidos por um médico para segmentar essas regiões. Desta forma, o algoritmo automatiza uma das etapas mais dispendiosas do diagnóstico, levando a uma análise mais rápida. Neste trabalho, o algoritmo proposto foi avaliado em bases de leucemia, câncer de pele, câncer de colo do útero e glaucoma, doenças que podem assumir um estágio grave e irreversível caso não haja um diagnóstico rápido e preciso. Os resultados obtidos ilustram a viabilidade da aplicação do algoritmo a fim de efetivamente auxiliar os médicos na detecção das regiões, uma vez que, na maioria dos testes, obteve-se um índice Kappa “Excelente” e taxas superiores comparadas aos outros algoritmos. Além disso, os baixos valores de desvio padrão revelam a estabilidade na execução do SFc-means. A partir da eficácia nos resultados da segmentação de imagens médicas, foi realizado um teste desse algoritmo em umas das etapas de um sistema de diagnóstico do glaucoma. Esse teste também obteve resultados eficazes, se sobressaindo quando comparado à alguns métodos da literatura.

  • RANULFO PLUTARCO BEZERRA NETO
  • Range-Only SLAM Baseado em Wi-Fi Utilizando Filtro de Kalman Estendido para Cellbot
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 06/03/2018
  • Mostrar Resumo
  • Com o advento de novas tecnologias e o barateamento de componentes eletrônicos, a facilidade de aquisição de um smartphone tem crescido a cada dia. Atualmente, os smartphones são detentores de processamento computacional com capacidade semelhante ou superior à alguns computadores no mercado. Diversas pesquisas demonstram a viabilidade do uso de smartphones na robótica e, como tais, este trabalho almeja aplicar uma técnica probabilística para solucionar o problema de SLAM em uma arquitetura Cellbot, onde o acionamento é realizado por um sistema embarcado e o processamento é feito em um smartphone. A proposta deste trabalho consiste em uma abordagem baseada no uso de dois receptores de sinal de Wi-Fi, usando a informação do RSS (Received Signal Strength) recebida pelos nós transmissores (Pontos de Acesso) para o problema de SLAM (Simultaneous Localization and Mapping). A solução apresentada é baseada no Filtro de Kalman Estendido utilizando apenas os RSS provindos de diferentes transmissores no cenário. O sistema em questão considera que o robô navega em um ambiente desconhecido onde recebe diferentes sinais de Wi-Fi com correspondência conhecida. A partir do uso da odometria e dos sinais Wi-Fi recebidos, o robô localiza a posição de cada um dos transmissores Wi-Fi bem como a si mesmo. Os resultados realizados por meio do simulador V-REP são apresentados para validar a proposta.

  • SÁVIO MOTA CARNEIRO
  • Abordagem Multiobjetivo para Alocação de Monitores de Qualidade de Energia Elétrica em Sistemas de Distribuição
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 20/02/2018
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Dentre os distúrbios de Qualidade da Energia Elétrica, destacam-se entre os mais relevantes e de maior ocorrência os afundamentos de tensão, pois além da sua natureza estocástica, o que torna difícil o seu monitoramento, causam enormes prejuízos às concessionárias e consumidores. O monitoramento constante é essencial para identificar os distúrbios existentes, no entanto os custos envolvidos inviabilizam o monitoramento completo do sistema, assim apenas um número reduzido de monitores está disponível, devendo serem instalados em posições estratégicas para cobrir a maior quantidade de eventos possíveis. Desta forma, percebe-se que a determinação dos pontos de instalação dos equipamentos é um fator crucial para o sucesso do plano de monitoramento. Este trabalho apresenta uma abordagem para a resolução do problema de alocação de monitores de qualidade de energia elétrica considerando vários aspectos do problema como a cobertura topológica, os afundamentos de tensão ocorridos, porém não monitorados e o custo total dos equipamentos instalados. Para contemplar os diversos aspectos mencionados, a abordagem proposta é baseada em um modelo de otimização multiobjetivo. O Non-Dominated Sorting Genetic Algorithm II (NSGA-II) foi empregado para resolução desse problema de otimização multiobjetivo devido a sua eficiência ao lidar com problemas de natureza combinatória. A abordagem proposta utiliza o Método das Posições de Falta para determinar os pontos de vulnerabilidade no Sistema de Distribuição para cada tipo de falta: monofásica, bifásica (fase-fase e fase-fase-terra) e trifásica. Dessa forma, a abordagem permite obter uma Matriz de Tensão Durante a Falta que representa o comportamento do sistema, considerando todos os tipos de faltas possíveis. A abordagem apresentada foi submetida aos sistemas de testes de 13, 34 e 37 barras do IEEE, simulados no software DigSILENT Power Factory 15.1. Os resultados obtidos permitem ao usuário à tomada de decisões sobre a quantidade e localização dos monitores que devem ser instalados, de forma a se adequar a realidade financeira da concessionária e evitar gastos desnecessários que não se traduzem em melhoria na capacidade de monitoramento. Desta forma, a concessionária pode adotar uma estratégia de monitoramento que leva em conta o número de afundamentos não cobertos, o custo total do monitoramento, a ambiguidade topológica, o total de cargas não monitoradas e a extensão da área de monitoramento.

     

     

2017
Descrição
  • FRANCISCO BRUNO DE SOUSA ROCHA
  • Mapeamento Topológico usando Informações de Sensores para Cellbots
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 07/12/2017
  • Mostrar Resumo
  • Um dos grandes desafios da robótica é tornar um robô autônomo, ou seja, o robô deve navegar no ambiente sem a intervenção humana. Essa autonomia pode ser abstraída em cinco etapas hierarquizadas: Mapeamento do Ambiente, Localização, Planejamento de Caminho, Geração de Trajetória e Execução de Trajetória. Este trabalho resolve a primeira etapa da navegação robótica, o mapeamento do ambiente. O mapeamento tem o objetivo de adquirir um modelo espacial do ambiente em que o robô se encontra, este ambiente é representado por meio de um mapa. Este trabalho faz uso de mapas topológicos, que são representados computacionalmente por um grafo, onde os nós representam regiões com informações sensoriais homogêneas e são conectados entre si por arestas. O grafo descreve os espaços livres para execução de tarefas. Por isso, o mapa topológico, devido a sua estrutura, é uma solução compacta para o armazenamento do grafo na memória e pode ser usado para resolução de problemas de alto nível, como planejamento de tarefas. O objetivo deste trabalho é implementar um sistema de mapeamento topológico usando informações de redes sem fio para um cellbot, afim de mostrar sua eficiência em mapear um ambiente indoor. Com a finalidade de reduzir os custos financeiros do projeto optou-se por utilizar um robô da arquitetura cellbot, um robô que utiliza um dispositivo móvel (smartphone) para processar informações. Geralmente já integrados ao smartphone dispomos de giroscópio, câmera e acelerômetro, componentes que podem ser usados na navegação robótica. O trabalho apresenta resultados do sistema de mapeamento topológico com informações de odometria e RSS, executando em três cenários com complexidade crescente. Os resultados apresentados dos tempos de execução no trabalho em smartphones são positivos. Para ambientes pouco complexos permite um tempo médio de 0,17 ms.

     

  • DENNIS SÁVIO MARTINS DA SILVA
  • Uma Abordagem Baseada em Métricas de Componentes de Software para a Priorização de Casos de Teste
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 15/09/2017
  • Mostrar Resumo
  • O teste de software é a principal forma de detectar falhas e avaliar a qualidade de um programa. Dentre os tipos de teste de software, podemos destacar o teste de regressão, que reexecuta os casos de teste do sistema para verificar se modificações em uma versão do programa não trouxeram prejuízo ao funcionamento de módulos que estavam atuando corretamente em versões anteriores. A forma mais comum de teste de regressão é a reexecução de todos os casos de teste do sistema, mas o crescimento no porte de umsistema de software pode dificultar essa abordagem devido a restrições de tempo ou de custos. Dentre as abordagens para resolver esse problema e melhorar o teste de regressão,podemos destacar a priorização de casos de teste, que consiste na alteração da sequência de execução dos casos de teste, buscando maximizar alguma propriedade da suite (conjunto) de testes. Este trabalho tem por objetivo priorizar casos de teste, buscando maximizar a taxa de detecção de falhas do teste de regressão. Para isso, é proposta uma abordagem em três etapas: na primeira etapa, são atribuídos valores de criticidade aos componentes do software por meio de um sistema de inferência fuzzy, cujas entradas são métricas de software relacionadas à susceptibilidade a falhas; na segunda etapa, é calculada a criticidade dos casos de teste, com base na criticidade dos componentes de software por eles cobertos; na terceira etapa acontece a priorização dos casos de teste, que emprega otimização por colônia de formigas para ordenar os casos de teste considerando suas criticidades, tempos de execução e histórico de detecção de falhas. As soluções foram avaliadas com base nas métricas APFD (Average Percentage of Fault Detection, que representa a taxa de detecção de falhas) e APFDC (variação do APFD que considera os custos de execução dos casos de teste e a severidade das falhas). Foram realizados experimentos com programas obtidos em um repositório aberto de objetos de software, e os resultados obtidos com a abordagem foram comparados à ordenação original das suites, à ordenação obtida por meio de uma busca exaustiva e a uma ordenação obtida por um algoritmo guloso. Além disso, os resultados foram submetidos a um teste de sanidade e comparados à ordenação aleatória, apresentando fortes indícios de adequação ao problema.

     

     

  • ALAN RAFAEL FERREIRA DOS SANTOS
  • Classificação de Imagens Dermatoscópicas utilizando Aprendizado Profundo
  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 01/09/2017
  • Mostrar Resumo
  • O melanoma é considerado o câncer de pele de maior gravidade e a sua descoberta em estágios avançados pode levar o paciente a óbito. O diagnóstico precoce ainda é a melhor forma de prescrever um tratamento adequando. Nesse contexto, o presente trabalho apresenta duas abordagens de classificação de imagens dermatoscópicas através da utilização de aprendizado profundo com as Redes Neurais Convolucionais. A primeira delas é baseada nos princípios tradicionais de detecção do melanoma, utilizando os conceitos da regra ABCD. Para tal, essa proposta de abordagem desenvolve as etapas de pré-processamento com filtros morfológicos, segmentação com o método Fuzzy K-means, extração de características de assimetria com o descritor de geometria, bordas com o método de Histogram Oriented Gradient, cor com o descritor Estatístico em Canais de Cores e os métodos de Haralick e de Gabor Bank Filter para obter os dados de texturas. Por fim, a classificação desses dados é realizada com uma arquitetura convolucional. A segunda abordagem sugerida nesse trabalho utiliza as arquiteturas de redes convolucionais AlexNet e VGG-F. Antes de treinar essas redes, o conjunto de imagens é ajustado através do método de data augmentation. Após o treino, os modelos convolucionais são utilizados como descritores de características através das camadas FC6 e FC7. Em ambas as abordagens propostas, são utilizados os métodos de classificação Support Vector Machine, K-Nearest Neighbor e MultiLayer Perceptron. Esses classificadores são implementados na maioria das formas de diagnóstico de lesões cancerígenas. Os testes realizados nesse trabalho utilizaram as bases de imagens PH2 e ISIC. A abordagem de classificação com as redes convolucionais obteve uma acurácia de 93,1% na classificação correta do melanoma. Já a abordagem com modelos convolucionais treinados obteve, em seu melhor resultado, uma acurácia de 91,5% na classificação das lesões cancerígenas com a descrição da arquitetura AlexNet, utilizando um treinamento com o método de bach normalization.

     

     

  • DENISE ALVES DA COSTA
  • Visualizando Comunalidades e Variabilidades em uma Família de Produtos de Software
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 29/08/2017
  • Mostrar Resumo
  • Linha de Produto de Software (LPS) é uma forma de desenvolvimento de software, na qual existe uma coleção de sistemas que compartilham um conjunto de artefatos, mas possuem componentes customizados para clientes específicos. Muitas são as vantagens de se utilizar uma LPS, como por exemplo, a melhor gestão das aplicações, entretanto muitos também são os desafios para a sua adoção. Embora a engenharia de LPS ofereça menores custos à fábrica de software, a sua implantação ainda é um processo oneroso. Existem hoje três abordagens distintas para a implantação da linha de produto em um processo de desenvolvimento, definidas para as diferentes necessidades do mercado. Uma delas denomina-se abordagem extrativa, na qual a LPS será construída a partir de produtos de software individuais pré-existentes. Empresas que já possuem diversas variantes de um produto, por exemplo, tem dificuldade em adotar LPS devido, dentre outros motivos, aos próprios custos decorrentes da migração de produtos individuais para uma plataforma única de desenvolvimento. Para realizar essa transição, são necessárias algumas atividades como identificar o que é comum e o que é variante dentre os produtos de software, reunir todo o código em um único local e prover um ambiente para desenvolvimento integrado. A fim de auxiliar o processo de adoção de LPS, este trabalho propõe um método para apoiar as empresas na primeira das etapas acima citadas, que é identificar as comunalidades e variabilidades existentes nos produtos que fazem parte do portfólio da empresa. Para alcançar esse objetivo, o método propõe uma ferramenta de visualização dessas comunalidades e variabilidades. De posse dessa informação, o gerente de projetos possui maiores subsídios para guiar o planejamento da reengenharia de seus produtos.

     

     

     

  • SEBASTIÃO GALENO PEREIRA FILHO
  • "Uma nova metodologia para simulação de protocolos de detecção e minimização de congestionamentos de veículos em cenários que utilizam traces de tráfego"
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 23/06/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O crescente número de veículos nas cidades, principalmente nos grandes centros urbanos, provoca alguns problemas de mobilidade. Um desses problemas é o congestionamento de trânsito que causa stress aos motoristas, grandes prejuízos financeiros para o país e prejuízos ambientais relacionados à emissão do dióxido de carbono (CO2). Para auxiliar na detecção e redução de congestionamentos têm sido propostos Sistemas Inteligentes de Transportes utilizando redes veiculares. As redes veiculares (VANETs - Vehicular Ad hoc NETworks) são um tipo especial de rede móvel ad hoc (MANET, Mobile Ad hoc NETwork) cuja principal característica é a capacidade dos veículos comunicarem entre si. Assim, por meio das redes veiculares, pode-se criar aplicações para gerenciar os congestionamentos de tráfego existentes e consequentemente reduzir o tempo de viagem dos veículos. Contudo, para atestar que esse tipo de aplicação é eficiente e pode ser utilizada por milhões de motoristas ao redor do mundo é preciso certificar-se que esta aplicação funciona, validando-a por meio de experimentos reais ou mais próximos de um ambiente real. De acordo com a literatura consultada, os experimentos que utilizam cenários reais e traces de tráfego vêm sendo uma alternativa aos experimentos reais para validar aplicações de monitoramento e controle de congestionamentos de tráfego. Apesar do uso de traces ser uma ótima maneira de validar esses protocolos em redes veiculares, existem alguns desafios nesses experimentos que devem ser mencionados: a escolha do cenário e trace adequado, a escolha da região e faixa de tempo do trace que será simulado. Por causa desses fatores nem todos cenários e traces podem ser adequados para validar as aplicações que gerenciam congestionamentos de tráfego, além do longo tempo necessário para realizar todas as simulações dos experimentos. Com isso, a proposta deste trabalho de mestrado é propor uma nova metodologia para simulação de protocolos de controle de congestionamentos de veículos em cenários que utilizam traces. Esta metodologia visa identificar as melhores áreas do cenário, melhores momentos do trace para serem utilizados e, principalmente, diminuir o tempo de simulação dos experimentos. Além disso, apresenta-se um estudo de caso utilizando a metodologia proposta que apresenta resultados para as diferentes regiões do cenário, caracterizando-as de acordo com a quantidade de veículos, velocidade dos veículos e níveis de congestionamentos das vias.

     

     

     

  • EUCASSIO GONÇALVES LIMA JÚNIOR
  • Entropia de projeção do Gabor Curvo com Random Forest para reconhecimanto de face
  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 09/06/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O reconhecimento facial tem por objetivo primordial identificar uma pessoa baseada em imagens de sua face. Apesar de vários avanços obtidos, alguns desafios permanecem como problemas não resolvidos, resultantes principalmente de condições não controladas do ambiente, tais como mudanças de iluminação, oclusão, variações de expressões faciais e posição da cabeça. Este trabalho apresenta uma abordagem para reconhecimento facial, caracterizando-se pela robustez a oclusão, variações de iluminação e expressões faciais. A abordagem proposta é constituı́da de seis etapas e baseia-se na combinação do filtro de Gabor curvo, entropia da função de projeção de variância, Random Forest e Support Vector Machine (SVM). O filtro de Gabor curvo é utilizado para realizar a extração do vetor de caracterı́sticas de uma imagem. Em seguida, as magnitudes das respostas de Gabor curvo são segmentadas em blocos não sobrepostos, com o intuito de diminuir a interferência de variações locais na imagem. A entropia da função de projeção de variância é usada para reduzir dados mais relevantes a partir da etapa anterior. Por fim, para construir o vetor final de caracterı́sticas utiliza-se o Random Forest. Por meio dele identifica-se os elementos mais relevantes da extração de caracterı́sticas visando manter os dados mais representativos da imagem, dessa forma, a abordagem apresenta uma baixa dimensionalidade do vetor de caracterı́sticas. De posse do vetor de caracterı́sticas, inicia-se o processo de treinamento do classificador, considerando os diversos indivı́duos da base de imagens. Após o treinamento do SVM, pode-se colocar a abordagem em operação para efetuar o reconhecimento facial das pessoas. Um conjunto de experimentos foi realizado, para avaliar a abordagem apresentada sobre caracterı́sticas de cenários encontrados em um ambiente real, fazendo uso das bases de imagens: AR Face, Feret, Essex e Essex com oclusão. A abordagem proposta foi avaliada em diversos cenários considerando variações de iluminação, oclusão por óculos de sol, variação de iluminação com oclusão por óculos de sol, oclusão por cachecol, variação de iluminação com oclusão por cachecol, mudança de expressão facial e todos os cenários juntos. Os resultados obtidos por meio dos experimentos superam as abordagens do estado da arte disponı́veis na literatura em todas as bases.

     

     

  • ÍTALO BARBOSA BRASILEIRO
  • Alocação de Regeneradores com Tonificação de Circuitos Para Redes Ópticas Elásticas
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 12/05/2017
  • Mostrar Resumo
  • As redes ópticas elásticas surgem como fortes candidatas para suprir a crescente demanda de tráfego, problema acarretado pela popularização dos dispositivos móveis e crescimento de aplicações com tráfego de grande volume de dados. Entretanto, alguns problemas precisam ser solucionados, a fim de obter maior aproveitamento dos recursos das redes ópticas elásticas. Problemas como roteamento, escolha de modulação, alocação de espectro, fragmentação, e imperfeições de camada física são alvos de estudo para pesquisadores da área. O principal objetivo deste trabalho é a proposta de um algoritmo para reduzir os efeitos de camada física nos circuitos da rede. O algoritmo de Alocação de Regeneradores com TOnificação de Circuitos (ARTO) seleciona os regeneradores a serem utilizados, e adapta o formato de modulação aplicado ao circuito a fim de fortalecer o circuito e reduzir interferências de futuros novos circuitos na rede. Simulações foram realizadas, e o algoritmo foi comparado com os algoritmos de alocação de regeneradores FLR e FNS, em duas topologias diferentes (EON e NFSNet) e obtem melhor resultado sobre o FLR (concorrente de melhor desempenho) com ganho entre 32.88% e 18.58% para a topologia NSFNet e entre 31.16% e 15.56% para a topologia EON. O estudo realizado neste trabalho permite observar que a aplicação do ARTO para cenários de regeneração nas EON potencializa o atendimento de requisições de circuitos, garantindo maior aproveitamento dos recursos da rede.

  • JURANDIR CAVALCANTE LACERDA JÚNIOR
  • Sobrevivência em Redes Ópticas Elásticas Considerando Imperfeições de Camada Física
  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 12/05/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

     

     

    A Rede Óptica Elástica é uma tecnologia promissora para compor a infraestrutura do núcleo da Internet. Para este tipo de rede é necessário prover mecanismos que garantam a sua disponibilidade mesmo após a ocorrência de uma falha, processo conhecido como sobrevivência de redes. Também é importante garantir a qualidade do sinal óptico, que tende a se degradar pelos efeitos de camada física. Este trabalho de mestrado propõe uma avaliação de desempenho de algoritmos Routing, Modulation Level, and Spectrum Allocation (RMLSA) tolerantes a falhas e que considerem as imperfeições de camada física. Em um estudo inicial, foram avaliados algoritmos de sobrevivência em um cenário ciente dos efeitos de camada física. A partir deste estudo inicial, três algoritmos são propostos: DP-SNR, DP-BSNR e DP-RQoTO. Tais algoritmos levam em consideração os efeitos da camada física nas escolhas de suas rotas e garantem sobrevivência da rede. Foi realizada uma avaliação de desempenho com tráfego dinâmico e requisições com demandas de banda variáveis. Os três algoritmos propostos neste trabalho foram comparados com outras propostas da literatura, obtendo uma diminuição da probabilidade de bloqueio na ordem de 90%. Entre os algoritmos propostos, o DP-RQoTO obteve melhor desempenho na maioria dos cenários avaliados. O ganho, em termos de probabilidade de bloqueio de circuito, do algoritmo DP-RQoTO em relação ao algoritmo DP-SNR foi de até 20,61%. Já em relação ao DP-BSNR, o ganho do DP-RQoTO foi de até 26,62%. Em termos de probabilidade de bloqueio de banda, o ganho do DP-RQoTO chegou a 19,97% em relação ao DP-BSNR e 8,85% em relação ao DP-SNR.

     

     

  • MARCOS ANTÔNIO DE SOUSA FRAZÃO
  •    Avaliação de Algoritmos de Superpixels e Descritores de Textura Para Segmentação das Regiões do Disco Óptico
  • Orientador : RODRIGO DE MELO SOUZA VERAS
  • Data: 28/04/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

    Imagens de fundo de olho constituem um valioso recurso para o diagnóstico médico, pois muitas vezes apresentam indicações de doenças oftalmológicas e, até mesmo, doenças sistêmicas como diabetes, hipertensão. A detecção e segmentação automática do disco óptico é um pré-requisito para o diagnóstico auxiliado por computador de várias doenças da retina, como o glaucoma. Esta dissertação trata de uma avaliação de algoritmos de superpixels e descritores de textura para segmentação do disco óptico, com indicativos futuros para detecção do glaucoma usando superpixels. Em se tratando de algoritmos de superpixels, realizamos uma avaliação de seis algoritmos com o intuito de determinar qual deles possuí um melhor desempenho na segmentação de imagens de disco óptico. Os algoritmos avaliados foram: Entropy Rate Superpixel Segmentation - ERS, Simple Linear Iterative Clustering - SLIC, Simple Linear Iterative Clustering (version with 0 parameter) - SLIC0, Java Simple Linear Iterative Clustering - JSLIC, Spatial-Constrained Watershed - SCOW e Linear Spectral Clustering - LSC. Um conjunto de características dos superpixels foram extraídos pelos descritores, GLCM (Grey-Level Co-occurrence Matrix), LBP (Padrão Binário Local), HOG (Histograma de Gradientes Orientados) e  GLRLM (Gray Level Run Length Matrix), em seguida, utilizamos dois classificadores para realizarmos  a classificação que foram: Perceptron de Múltiplas Camadas e Máquinas de Vetores de Suporte. Foram aplicandos um conjunto de medidas estatísticas para avaliar o desempenho do resultado da segmentação. Os classificadores foram utilizados para classificar os superpixels da região da escavação e o disco óptico. Observamos que em geral os algoritmos de superpixels na detecção do glaucoma, que apresentam melhor desempenho, fazem pequenos testes em bases de imagens muito grandes, e com uma pequena quantidade superpixels aplicado na imagem. Propomos testes com nove quantidades de superpixels, para podermos comparar os resultados e saber a melhor quantidade de superpixels para aplicação dos testes.

     

  • HUGO DE OLIVEIRA CORDEIRO
  • Aprimorando a regulação de procedimentos assistenciais a partir da triagem de solicitações
  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 29/03/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Evitar o desperdício de recursos é um dos maiores desafios para a melhoria do serviço de atenção à saúde no Brasil. No âmbito das operadoras de planos de saúde brasileiras, destaca-se a regulação de solicitações de serviços assistenciais como mecanismo de combate ao desperdício oriundo de erro médico, fraude e abuso. Tradicionalmente a avaliação das solicitações é um processo manual e considerando o volume de solicitações torna-se um mecanismo de manutenção cara e não escalável, que atrasa o acesso do Orientações: O requerimento deve ser TOTALMENTE preenchido e enviado para o e-mail ppgcc@ufpi.edu.br o com pelo menos 40 dias de antecedência. paciente ao serviço além de causar atrito entre operadoras de planos de saúde e prestadores de serviços. Este trabalho propõe a triagem de solicitações para otimizar o processo de regulação. Para isso, técnicas de mineração de dados foram utilizadas para a construção de modelos preditivos a fim de responder automaticamente solicitações que tiverem a probabilidade de autorização igual ou superior a um fator de confiança escolhido pela operadora de planos de saúde, encaminhando o restante das solicitações para a avaliação manual. A abordagem proposta foi avaliada em sete bases de dados disponíveis para o estudo, contemplando seis operadoras de planos de saúde públicas e uma privada. Na base de dados com a proporção menos discrepante entre solicitações autorizadas e não autorizadas foi possível responder automaticamente até cerca de 90\% das solicitações mediante a variação do fator de confiança, porém esse desfecho não foi alcançado nos cenários mais desbalanceadas. Estes resultados mostram a viabilidade da utilização dessa abordagem, em bases de dados balanceadas ou pouco desbalanceadas, para reduzir a carga de trabalho de avaliadores humanos, o que pode tornar o processo mais rápido e mais barato.

  • CARLOS AUGUSTO DE SA
  • Abordagem para Definir a Reputação do Autor em Comentários de Produtos na Web Utilizando Redes Neurais Artificiais
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 22/03/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Com a popularização da Web 2.0, os serviços de comércio eletrônico permitiram uma interação dos seus usuários de forma bastante intensa. Estes serviços disponibilizam aos seus clientes meios de opinar e também diversos recursos para avaliar as opiniões de outros clientes sobre determinados produtos ou serviços. Atualmente, estas avaliações podem ser feitas através de votos (positivos ou negativos), estrelas, compartilhamentos ou curtidas, por exemplo. Com um alto volume de opiniões e recursos avaliativos, se torna difícil para os novos consumidores lerem tantos comentários para tomarem decisões a cerca de uma compra. Além disso, conhecer a reputação do autor dos comentários é de suma importância para não ser enganado em suas buscas por uma nova aquisição. Neste sentido, a reputação de um autor é considerada uma variável muito importante para avaliar um comentário na Web. No entanto, não existe uma definição formal sobre como calcular essa variável.

    Este trabalho apresenta uma adaptação da abordagem apresentada por de Sousa (2015) para avaliar a importância de comentários sobre produtos e serviços na Web, enfatizando a medida de reputação do autor. A adaptação implementada consiste em utilizar seis medidas referentes ao autor que são fornecidas como entradas em uma Rede Neural Artificial Multilayer Perceptron. Em uma avaliação preliminar, a Rede Neural apresentou a acurácia de 62,08% no processo de classificação do autor. Adicionalmente, foi realizado um experimento para comparar as duas abordagens e os resultados mostram que a abordagem adaptada obteve um ganho na classificação da importância dos comentários.

     

     

  • RONEY LIRA DE SALES SANTOS
  • Um Estudo Comparativo entre Abordagens baseadas em Sistemas Fuzzy e Redes Neurais Artificiais para Estimar a Importância de Comentários sobre Produtos e Serviços
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 21/03/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A evolução do e-commerce e das Redes Sociais Online (RSO) tornaram significativo o crescimento da Web e como consequência, a quantidade de informações disponíveis tem aumentado bastante a cada dia, tornando a tarefa de analisar comentários, de forma manual, praticamente impossível para o processo de tomada de decisão de compra (ou não) de um produto ou serviço. Conhecer a opinião de outros consumidores é de suma importância para esse processo. Devido ao volume de informações, a criação de métodos automáticos de extração de conhecimento e mineração de dados tornou-se necessária. A avaliação da opinião é um ponto forte tratado por pesquisadores de Processamento de Linguagem Natural (PLN) no âmbito da Análise de Sentimentos ou Mineração de Opinião. Atualmente, para facilitar a procura de comentários pelo usuário, alguns sites utilizam filtros tais como por utilidade ou por estrelas, mas não são melhores formas pois podem excluir comentários novos que ainda não foram votados. Uma solução para tal problema seria filtrar os comentários a partir da sua descrição textual, a fim de selecionar os comentários mais importantes para o consumidor ler e tomar uma decisão. Sousa (2015) propôs uma abordagem denominada TOP(X) para estimar o grau de importância de comentários sobre produtos e serviços utilizando um modelo computacional inspirado em Sistemas Fuzzy, reportando resultados satisfatórios na detecção dos comentários mais importantes, mas com alguns problemas que ficaram pendentes de resolução e melhoras, além da possibilidade de alterar o modelo computacional usado na abordagem TOP(X). Esta dissertação propõe adaptações em duas variáveis de entrada da abordagem: quantidade de tuplas <característica, palavra opinativa> e riqueza do vocabulário. Após as adaptações, propõe-se a construção de duas novas abordagens utilizando modelos computacionais baseados em Sistemas Fuzzy e Redes Neurais Artificiais (RNA). O objetivo geral desta dissertação é comparar ambas as abordagens por meio de medidas estatísticas que permitem fazer a equiparação de modelos computacionais paramétricos. As adaptações nas variáveis de entrada da abordagem TOP(X) fazem parte dos objetivos específicos, nas quais são propostos novos padrões linguísticos e uma ontologia, que foram utilizadas em um novo método de inferência semântica e novos índices para mensurar a riqueza do vocabulário do comentário. Experimentos realizados no domínio de hotéis mostraram que na comparação das abordagens, a abordagem utilizando Sistema Fuzzy obteve melhores resultados ao detectar os comentários mais importantes enquanto a abordagem usando Redes Neurais Artificiais melhor se comportou na detecção dos comentários mais importantes quando se define a sua orientação semântica sendo positiva ou negativa.

     


  • JAILSON NUNES LEOCÁDIO
  • Descoberta de Conhecimento em Base de Dados sobre Avistamentos de Peixes-boi Marinho (Trichechus manatus manatus) no Estuário dos Rios Timonha e Ubatuba (PI/CE)
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 20/03/2017
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O peixe-boi marinho (Trichechus manatus manatus) é o mamífero aquático mais ameaçado de extinção no Brasil e sua distribuição ao longo da costa marinha tem diminuído com o passar dos anos. Para que se desenvolva propostas de preservação e manejo da espécie e dos ambientes onde vive é necessário informações sobre a interação desses organismos com os recursos naturais disponíveis em seu habitat e as características ambientais que tornam possível a sua sobrevivência. Métodos estatísticos frequentemente são usados para este propósito, porém não se adequam totalmente à necessidade, tendo em vista que os ecossistemas apresentam relações não-lineares entre seus componentes. Dada a existência de um volume de dados coletados sobre a presença de peixe-boi marinho no estuário dos rios Timonha e Ubatuba (PI/CE) foi proposto o uso do processo de Descoberta de Conhecimento em Bases de Dados (DCBD) para manipulação dessas informações para se estimar a presença e a localização de espécimes. A metodologia utilizada engloba o pré- processamento, transformação, mineração dos dados e interpretação dos padrões obtidos. Foi relizado a preparação da base e dados e na fase de Data mining (mineração de dados) do processo de DCBD foram empregados algoritmos classificadores dos paradigmas simbólico (J48, Random Forest e Random Tree), estatístico (Naive Bayes e Tree Augmented Naive Bayes) e conexionista (Multi Layer Perceptron e Radial Basis Function) para definir qual deles têm melhor desempenho em estimar a presença do animal, de acordo com a situação ambiental representada pelos atributos da base de dados, e a região de aparecimento dos espécimes e para a obtenção de padrões significativos e válidos que possam apoiar o planejamento e ações em favor da continuidade da espécie. A rotulação automática de grupos também foi utilizada sobre os clusters gerados pelo algoritmo não-supervisionado K-means para definição e entendimento das características comuns aos elementos agrupados semelhantemente. Os resultados obtidos foram avaliados de acordo com um conjunto de métricas selecionadas (acurácia, índice Kappa, precisão, recall, f-measure e área sob a curva ROC) para que se pudesse verificar a qualidade dos modelos gerados, selecionar os melhores resultados e descobrir informações importantes sobre os atributos estudados. A interpretação dos padrões obtidos foi apoiada pela literatura especializada e os resultados estão de acordo com o que é mostrado pelos levantamentos de distribuição e ocorrências do mamífero no país..

     

     

2016
Descrição
  • DIEGO PORTO ROCHA
  • Sistema de localização para Cellbots integrando odometria visual monocular e força de sinal WiFi
  • Orientador : ANDRE MACEDO SANTANA
  • Data: 21/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Um dos principais desafios da robótica móvel consiste em dotar robôs de autonomia. Neste sentido, aflora a necessidade de um sistema capaz de computar a pose (posição e orientação) do robô no seu espaço de trabalho – Sistema de localização. Este trabalho apresenta um sistema de localização utilizando odometria visual e sinal WiFi. O sistema foi projetado para ser utilizando em uma plataforma robótica da arquitetura cellbot (robôs baseados em dispositivos móveis) e faz uso do filtro probabilístico de partículas para realizar a correção da pose do robô no ambiente. Foram realizadas análises combinando algoritmos de detecção, descrição e correspondência na odometria visual, bem como a influência da quantidade de features detectadas no desempenho da odometria. Também foram analisados a precisão e custo da diversificação na quantidade de partículas utilizadas no filtro e a influência da quantidade de pontos de acesso WiFi utilizados. Os resultados experimentais com plataforma robótica e simulação são analisados e apresentados neste trabalho. O sistema demonstrou ser capaz de localizar um robô cadeira de rodas.

     

     

     

  • JACKSON CUNHA CASSIMIRO
  •  Investigação dos Efeitos do Desbalanceamento de Classes na Aprendizagem da Regulação de Planos de Saúde

  • Orientador : ANDRE MACEDO SANTANA
  • Data: 16/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

     

    A operação de planos privados de assistência à saúde no Brasil representa uma importante via de prestação de serviços à população. O Brasil é o maior mercado de saúde privada na América do Sul, sendo que em 2012 os custos com saúde representaram cerca de 8% do PIB. Nesse mercado, muitas empresas operadoras de planos de saúde (OPS) encontram-se em situação de desequilíbrio financeiro, caracterizada pelo fato de as despesas somadas representarem um valor maior que as receitas. Fraudes e abusos na utilização de serviços em saúde são dois fatores que influenciam diretamente esse desequilíbrio, uma vez que correspondem a despesas que poderiam ser eliminadas sem prejuízo à qualidade dos serviços prestados. Um dos mecanismos empregados pelas OPS para evitar despesas indevidas decorrentes de fraudes e abusos é a Regulação, que consiste em uma análise prévia antes da liberação para realização, dos serviços que são solicitados pelos prestadores de saúde. A análise manual das solicitações que é realizada durante a regulação de planos de saúde é um exemplo de fator que tem motivado as OPS a desenvolverem sistemas capazes de identificar fraudes e abusos de forma automática ou semi-automática, muitas vezes por meio de técnicas de Mineração de Dados e Aprendizagem de Máquina. Neste cenário, a utilização dessas técnicas é impactada pelo problema do desbalanceamento de classes, oriundo do fato de haver muito mais solicitações de serviços autorizadas do que não autorizadas pelo processo de regulação. A proposta deste trabalho é investigar os efeitos desse problema na aplicação de técnicas de aprendizagem de máquina no contexto da regulação de planos de saúde. Mais precisamente, é investigar por meio de um experimento o quanto de performance de predição é perdida devido ao desbalanceamento de classes e o quanto dessa performance perdida pode ser recuperada utilizando-se métodos de tratamento específicos aplicados aos dados. Este experimento emprega bases de dados em que as distribuições de classes foram modificadas artificialmente, algoritmos de classificação de diferentes paradigmas e diferentes métodos de tratamento de dados. Entre os resultados mais importantes, notou-se que o desbalanceamento de classes afeta sim a performance de aprendizagem da regulação, mas de forma diferente para cada algoritmo estudado. Observou-se também que os métodos de tratamento são capazes de reduzir a perda de performance, mas também que essa redução depende do algoritmo de classificação e da distribuição de classes empregados em conjunto.

     

     

  • LAYSSON OLIVEIRA LUZ
  • ArachNoc : Um processador manycore com nós de processamento multicore suportando o modelo de programação IPNoSys

  • Orientador : IVAN SARAIVA SILVA
  • Data: 16/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Multiprocessadores são arquiteturas com mais de um núcleo de processamento que exploram o paralelismo para fornecer maior desempenho. Eles têm sido pesquisados e implementados na construção de computadores de alto desempenho (HPC - High Perfomance Computers). Com muitos núcleos de processamento, a comunicação entre os mesmos é fator crucial para obtenção de alto desempenho. É com base nela que são determinadas a velocidade de processamento, o consumo de energia, o espaço em chip e a escalabilidade. A fim de reduzir a latência na comunicação e aproximar processadores e memórias, pesquisadores têm investido na conexão das unidades de processamento por meio de redes em chip (em inglês, NoC), os chamados MP-SoCs (Multiprocessor Systems-on-Chip). Este trabalho apresenta um MP-SoC com um sistema de comunicação e sincronização entre processos que tem por base o padrão de paralelismo Fork-Join. Tal arquitetura, chamada ArachNoc, é composta por nós multicore de processamento. Esses nós possuem nove núcleos, sendo um mestre e oito escravos, que são baseados na ISA MIPS, e conferem suporte à programação paralela por meio da inserção das instruções de sincronização. Para a validação e avaliação de desempenho do sistema proposto, foram desenvolvidas aplicações paralelas. Para a produção destas aplicações foram utilizadas a linguagem C de programação e a biblioteca OpenCL, e para gerar os códigos binários foram desenvolvidos dois compiladores cruzados (do inglês, cross-compiler): um compilador GNU GCC to ArachNoc e outro LLVM to ArachNoc. O benchmark desenvolvido conta com aplicações dos mais diversos níveis de avaliação de desempenho, desde aplicações para apenas validar o sistema em chip, até aplicações para exaurí-lo, isto é, extrair o desempenho máximo do sistema. Algumas delas são: Multiplicação de Matrizes (com diferentes formas de paralelismo), Dijkstra, Algoritmos Genéticos Simples e Algoritmos para processamento de imagens, como o Filtro Laplaciano.

  • JÔNATAS CARNEIRO DOS SANTOS FERREIRA
  • CLEM & OCEAN: Dois Compiladores OpenCL para as Arquiteturas Manycore METAL e ArachNoC

  • Orientador : IVAN SARAIVA SILVA
  • Data: 15/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nos últimos anos, é notório a evolução das arquiteturas manycores. Essas arquiteturas se caracterizam por possuírem dezenas de núcleos de processamento integrados em um único circuito que executam tarefas de maneira concorrente. Dadas as conhecidas dificuldades associadas à programação paralela, tais sistemas serão subutilizados caso não sejam adotadas ferramentas que ofereçam recursos que simplifi- quem o desenvolvimento de aplicações. Partindo dessa premissa, este trabalho descreve o desenvolvimento de um conjunto de ferramentas de compilação para as arquiteturas manycore METAL (ManycorE PlaTform Adatted to OpenCL) e ArachNoC (Arachnid NoC). As duas plataformas são manycore com múltiplos nós de processamento conectados por uma rede em chip (NoC - Network on Chip) com topologia em malha 2D. Possuem oito nós de processamento multicores mais um nó mestre dotado de um único núcleo de processamento. Enquanto METAL possui uma arquitetura, em particular a hierarquia de memória, adaptada ao modelo de programação OpenCL (Open Computing Language), ArachNoC confere suporte à programação paralela por meio da inserção das instruções de sincronização. Para o desenvolvimento da ferramenta proposta, o framework OpenCL será adotado como modelo de programação. A adoção de OpenCL se justifica pelo fato de tal framework ter se tornado, nos dias atuais, a principal alternativa para programação de sistemas dotados de múltiplos núcleos de processamento. A infra-instrutura LLVM (Low Level Virtual Machine) foi utilizada para criação de um compilador. Busca-se contribuir no desenvolvimento de um conjunto de ferramentas de compilação para as plataformas citadas, bem como, no desenvolvimento de uma técnica de geração de código para a execução em arquiteturas multicore, e oferecer recursos que facilitam o desenvolvimento de tais arquiteturas. Para validação e avaliação das ferramentas propostas, foram realizados comparativos com o compilador GCC (GNU Compiler Collection). Os resultados mostram que as ferramentas criadas possuem tempo de compilação e execução superiores ao GCC.

     

     

  • RAMON SANTOS NEPOMUCENO
  • METAL: Uma Plataforma Manycore de Propósito Geral Adaptada ao Modelo de Programação OpenCL

  • Orientador : IVAN SARAIVA SILVA
  • Data: 13/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O termo GPGPU (General Purpose Graphics Processing Unit) é utilizado para denominar o uso de GPUs (Graphics Processing Unit), em conjunto com CPUs (Central Processor Unit), para computação de propósito geral. Embora esses sistemas sejam capazes de executar aplicações de propósito geral e SIMD (Single Instruction Multiple Data), CPUs e GPUs são projetadas separadamente, portanto, apresentam características distintas que dificultam a maximização do potencial dessas arquiteturas quando utilizadas em conjunto. Este trabalho apresenta METAL (ManycorE plaTform Adapted to opencL), uma plataforma manycore baseada em rede em chip, cuja arquitetura foi concebida com o propósito de executar, nativamente, tanto aplicações SIMD quanto de propósito geral. A programação SIMD é realizada utilizando a linguagem OpenCL, cuja execução é facilitada pelo uso de um escalonador de work-items e de um modelo de memória compatível. Os núcleos de processamento utilizados na plataforma são processadores de propósito geral MIPS que, com o suporte de recursos em hardware, permitem o uso de programação paralela utilizando a técnica de exclusão mútua. Algumas aplicações foram desenvolvidas para validar e avaliar o desempenho, bem como a programabilidade da arquitetura. Os algoritmos: Dijkstra; multiplicação de matrizes; problema das N rainhas com solução por algoritmos genético paralelo; jantar dos filósofos e detecção de borda aplicando o filtro laplaciano foram desenvolvidos e executados em um simulador implementado em SystemC. Os experimentos mostram o desempenho da plataforma ao executar os algoritmos e impacto que a comunicação utilizando a rede em chip exerce nas aplicações.

  • WERNEY AYALA LUZ LIRA
  •  Um método para inferência da familiaridade de código em projetos de software 

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 01/09/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

     

    Durante o desenvolvimento de software é comum o uso de ferramentas para armazenar ou compartilhar informações entre a equipe. Essas informações podem ser alguns documentos ou até mesmo o código fonte de todo o projeto que está sendo desenvolvido. Uma das ferramentas mais utilizadas é o sistema de controle de versão. Por meio delas é possível obter informações valiosas acerca do processo de desenvolvimento, dos membros da equipe e até mesmo da empresa. Essas informações podem ser utilizadas para apoiar diversas outras atividades também ligadas ao desenvolvimento, como a manutenção de sistemas, aprimorar o design e reutilização do software, além de servir para, empiricamente, validar novas ideias ou técnicas. Neste trabalho as contribuições dos desenvolvedores para código do projeto, obtidas a partir dos commits feitos ao sistema de controle de versão, são utilizadas para inferir a familiaridade que cada membro da equipe tem com o código do projeto. Além das contribuições, foram criadas algumas métricas para tratar de aspectos relacionados ao desenvolvimento de software e ao próprio ser humano, como a sua capacidade de esquecer algo que implementou ao longo do tempo ou a possibilidade de o que fez ser sobrescrito por outro desenvolvedor. Para facilitar a visualização da familiaridade de código em toda a estrutura do projeto foi criado uma ferramenta denominada CoDiVision. Por meio das avaliações feitas percebeu-se que as informações obtidas nesse processo podem ser utilizadas para diversos objetivos como no apoio aos professores na atividade de escolha da nota de alunos de disciplinas de programação, ou no apoio aos gerentes de projeto na descoberta dos membros com maior familiaridade com a finalidade de dar mais agilidade ao projeto, atribuindo as atividades ao membros com maior familiaridade, ou na melhor distribuição da familiaridade com a finalidade de evitar eventuais prejuízos decorrentes da ausência de um membro com alta familiaridade. Pode auxiliar ainda as próprias equipes de desenvolvimento na procura dos membros com maior familiaridade para retirar dúvidas acerca do código do projeto.

     

     

     

  • ELLEN GERA DE BRITO MOURA
  •  CAChTI - Modelo de Classificação Semiautomático de Chamados Técnicos de TI

  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 26/08/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Serviços de call-center (ou service desk) são classificados, a fim de categorizar, priorizar e identificar soluções para casos semelhantes. As mensagens também podem ser utilizadas para definir a área e o técnico responsável pela manutenção do chamado. Considerando os ambientes corporativos, a classificação correta otimiza os recursos e minimiza impactos negativos para o negócio. Serviços normalmente são abertos por usuários de TI e escritos em linguagem natural, através de softwares específicos para gestão do chamado ciclo de vida.

    Esta Dissertação apresenta um modelo de classificação semiautomático para serviços de TI, utilizando técnicas de processamento de linguagem natural e algoritmos de aprendizagem de máquina supervisionados. Uma rede semântica foi utilizada para a definição de features conceituais. Com o modelo proposto foi possível reduzir a dependência humana no processo de classificação dos chamados e atividades de priorização, na seleção de técnico para atendimento e no diagnóstico e listagem de possíveis soluções.

    Realizou-se um experimento sobre um corpus de chamados técnicos de TI cedidos por um órgão público do Estado do Piauí, com service desk implantado, contendo 2.064 chamados, distribuídos em 9 classes, previamente anotados. Na Classificação foram utilizados os algoritmos Naive Bayes, J48 e SMO que obtiveram taxas de acerto de 72.9%, 70.7% e 75.8%, respectivamente.

  • HÉLCIO DE ABREU SOARES
  • Help4ERS: uma metodologia para conduzir a escrita de documentos de Especificação de Requisitos de Software
  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 26/08/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A Engenharia de Requisitos (ER) é o processo de definir, documentar e manter requisitos de softwares e tem como objetivo apoiar a criação e a manutenção do documento de Especificação de Requisitos de Software (ERS). Esse documento é a base para as demais atividades de desenvolvimento e sua qualidade é fundamental para o sucesso do projeto. Ele serve como um contrato entre os participantes do desenvolvimento do software e deve ser produzido de forma que todos possam entendê-lo. Para isso descrições em linguagem natural e modelos de domínio são frequentemente utilizados. No entanto, o uso de linguagem natural pode dar origem a especificações de requisitos incompletos, inconsistentes e ambíguos, gerando interpretações equivocadas sobre os objetivos do sistema, além de impedir suporte computacional em especificações de requisitos. Nesse contexto, esta Dissertação propõe uma metodologia para auxiliar o analista de requisitos a escrever documentos de ERS completos, consistentes, não ambíguos, denominada Help4ERS. A metodologia define padrões de sentenças que ajudam a expressar requisitos de sistemas sem os problemas do uso de linguagem natural. A partir desses padrões, são definidas Linguagens Naturais Controladas (LNC) e Padrões Linguísticos que apoiam a verificação de inconsistências e ajudam na identificação automática de elementos de projeto (casos de uso, atores, classes, atributos e métodos). A metodologia engloba atividades inerentes às fases de ER, tais como análise de domínio da aplicação, definição semântica do domínio, escrita dos requisitos e verificação de inconsistência, além da fase de geração modelos de projeto (diagrama de classe, diagrama de casos de uso e protótipo de interface). A metodologia é apoiada pelo protótipo ERS-EDITOR que implementa os Padrões Linguísticos e as LNC’s e dá suporte automatizado às atividades da metodologia. Uma avaliação preliminar destaca resultados promissores para a abordagem proposta.

  • RICARDO TELES FREITAS
  • Localização e Identificação de Pontos de Referência Facial para Cirurgias Plásticas

  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 26/08/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A beleza é uma qualidade que gera discussão e intriga o ser humano desde tempos remotos. Filósofos da Grécia Antiga como Platão e Aristóteles já discutiam sobre os aspectos objetivos e subjetivos dessa característica. Já na Renascença, o ideal de beleza humano foi revisto por vários artistas e cientistas daquele tempo. No século XX, os avanços da medicina proporcionaram uma abordagem ainda mais cientifica acerca da estética humana. Essa qualidade moveu a ciência para um caminho que permite ao homem tanto corrigir anomalias congênitas como reparar desconformidades com os padrões estéticos de uma determinada sociedade ou grupo biológico e cultural. Para tanto, é indispensável que uma cirurgia corretiva seja precedida de uma rigorosa análise pré-operatória baseada em informações sobre os aspectos físicos do paciente. Nos procedimentos faciais, tais dados podem ser representados por pontos de referência, que são explorados para medir desvios estéticos. Este trabalho tem como objetivo propor uma metodologia que possibilite localizar e identificar os pontos de referência necessários para se realizar avaliações estéticas da face auxiliando na definição de procedimentos cirúrgicos adequados às características de um paciente. A necessidade de separar a análise facial em duas diferentes perspectivas (frontal e perfil) gera abordagens distintas para a solução do problema. Para localizar os pontos do perfil foi elaborado um método inovador a partir de um conjunto de 30 imagens de perfil. Para a perspectiva frontal, foram realizadas modificações no método Active Shape Models (ASM) de modo a adaptá-lo ao conjunto de pontos frontais necessários para análises estéticas. O sistema desenvolvido é capaz de localizar 35 pontos faciais nas perspectivas frontal e de perfil e foi testado em mais de 800 imagens. Ele apresentou bons resultados para a perspectiva do perfil e foi capaz de melhorar o ASM clássico aplicado a localização de pontos frontais.

     

     

     

     

     

  • MATHEUS DE MENESES CAMPANHÃ SOUZA
  • Uma Abordagem para Apoiar Avaliações de Usabilidade de Sistemas Web Remotamente

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 12/08/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Sistemas Web estão cada vez mais presentes no cotidiano das pessoas. No entanto, partes desses sistemas não são adequadas para uso, causando problemas na sua adoção e podendo assim determinar seu sucesso ou fracasso. A adequação ao uso é algo conhecido como usabilidade e, por conta da predominância de sistemas disponíveis na Internet, com potencialmente milhões de usuários, tem ganho bastante evidência nos últimos anos. Entender o nível de usabilidade de um sistema tornou-se um aspecto chave para sucesso de aplicações Web. Dentre os métodos tradicionais de avaliação de usabilidade, testes laboratoriais destacam-se por avaliar a interação de usuários com um software. Entretanto, a complexidade e os custos associados aos testes de usabilidade laboratoriais desencorajam a sua execução, uma vez que exigem uma equipe dedicada e presencial durante a avaliação. Devido à crescente necessidade de realizar avaliações de usabilidade, é proposta neste trabalho uma abordagem de apoio a essas avaliações, objetivando torná-las mais simples e menos custosas. A abordagem possui uma ferramenta de apoio, denominada UseSkill, que baseia-se na captura das interações dos usuários (logs) de forma remota e automática. A UseSkill permite a captura desses logs em contextos controlados, com a realização de tarefas pré-definidas, e em contextos de produção, onde o usuário utiliza livremente o sistema em seu dia a dia. Com base nos dados capturados em um contexto controlado, a ferramenta compara as ações realizadas por usuários “experientes” e “novatos” no sistema. Os usuários “experientes” são os que possuem fluência ao utilizar o sistema, por mais que existam problemas de usabilidade, enquanto os “novatos” não possuem muito conhecimento sobre o uso do sistema. A ferramenta calcula métricas associadas aos usos do sistema e com isso aponta possíveis problemas de usabilidade, sugeridos a partir de diferenças entre as interações de experientes e novatos. Um estudo experimental foi realizado para avaliar o comportamento dessa ideia em um contexto experimental e os resultados obtidos indicaram que ela pode ser um grande aliado na redução dos custos das avaliações de usabilidade. Embora a técnica desenvolvida tenha obtido um resultado satisfatório, os custos e complexidades logísticas envolvidas nessas avaliações em ambientes controlados dificultam a sua utilização. Objetivando amenizar tais problemas, foi proposta uma extensão da técnica para o ambiente real de produção de um software e com isso realizar avaliações de usabilidade on the fly. Essa extensão permite que sejam realizadas avaliações constantes de um sistema Web, indicando as funcionalidades mais usadas, que possuem indicadores de usabilidade mais baixos e auxiliando na identificação dos problemas. Avaliações foram realizadas com apoio da UseSkill e em seguida comparadas com avaliações baseadas em um método de inspeção de usabilidade. Os resultados obtidos apresentam indícios de que a ferramenta da abordagem proposta é uma alternativa relevante para apoiar avaliações de usabilidade de sistemas Web, gerando indicações de pontos problemáticos em funcionalidades do sistema.

  • RONIEL SOARES DE SOUSA
  • Um Protocolo de Redes Veiculares com Baixo Overhead de Comunicação para a Redução do Tempo Médio de Viagem dos Veículos

  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 16/06/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Os aumentos dos congestionamentos de trânsito em grandes cidades causam impactos negativos em diversas áreas, como na saúde e economia. Os Sistemas Inteligentes de Transporte, que utilizam tecnologias como laços indutivos, Sistema de Posicionamento Global (Global Position System - GPS), câmeras de vídeos, sensores e comunicação sem fio, são vistos como uma das principais alternativas para diminuir estes congestionamentos (ajuste dinâmico nos temporizadores de semáforos, monitoramento de tráfego, etc). Com isso, diversas soluções para o controle de congestionamentos baseadas na comunicação entre veículos vêm sendo propostas. Uma das tecnologias utilizadas para a comunicação no ambiente veicular são as redes veiculares. As comunicações nas redes veiculares podem ocorrer de Veículo para Veículo (V2V) ou de Veículo para Infraestrutura (V2I). A instalação e manutenção de infraestruturas necessárias para cobrir completamente as áreas urbanas pode apresentar altos custos. Com isso, este trabalho apresenta um novo protocolo de baixo overhead que utiliza a comunicação V2V da tecnologia de redes veiculares. Em outras palavras, o protocolo é independente de infraestruturas externas. O objetivo do protocolo é reduzir o tempo médio de viagem dos veículos garantindo um baixo overhead de comunicação na rede veicular. Foi realizado um estudo de avaliação de desempenho com o objetivo de comparar a solução proposta com os trabalhos relacionados. O protocolo proposto apresentou o melhor desempenho em termos de overhead de sinalização. Nos cenários com maior demanda de tráfego, a quantidade de mensagens geradas pelo protocolo proposto foi aproximadamente 43% menor que o segundo melhor resultado e 80% menor que o protocolo que apresentou o pior desempenho. Por meio do mesmo estudo verificou-se a eficiência do protocolo em reduzir os congestionamentos nos cenários avaliados. Foi obtida uma redução de até 22% no tempo médio de viagem dos veículos. Palavras-chaves: congestionamento de trânsito,

  • PEDRO ALMIR MARTINS DE OLIVEIRA
  • Athena: uma Arquitetura e uma Ferramenta para Auxiliar o Desenvolvimento de Sistemas Baseados em Inteligência Computacional.

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 28/03/2016
  • Mostrar Resumo
  • A Inteligência Computacional (IC) concentra-se no estudo de mecanismos adaptativos que possibilitam o comportamento inteligente em sistemas complexos e dinâmicos. Essa área reúne diferentes técnicas que exploram a tolerância a precisão, incerteza e verdades parciais para obter flexibilidade, robustez e soluções de baixo custo. As técnicas de IC representam um paradigma computacional emergente, pois vêm obtendo sucesso na resolução de problemas complexos nas mais diversas áreas do conhecimento, por exemplo, classificação e predição de câncer com base no perfil genético do paciente (medicina), obtenção de novos compostos poliméricos (química), identificação de novas espécies de morcegos (biologia), modelagem de séries financeiras (economia), reconhecimento de distúrbios na qualidade da energia elétrica (engenharia elétrica), projeto de circuitos VLSI (arquitetura de computadores), alocação de equipes (engenharia de software), combate a crimes cibernéticos (segurança), dentre outros. Esse conjunto de trabalhos representa apenas um retrato da ampla gama de aplicações possíveis para tais técnicas. Entretanto, apesar de todas essas possibilidades, existe uma série de dificuldades relacionadas à construção de sistemas inteligentes: o alto custo de desenvolvimento, a difícil reutilização das implementações, a implementação manual é propensa a erros, ferramentas inadequadas e com pouco suporte a construção de sistemas híbridos (duas ou mais técnicas integradas), dificuldades para realizar experimentos e para efetivar a integração com outros sistemas. O conjunto dessas dificuldades representa o problema a ser abordado neste trabalho. Nesse contexto, propõe-se a construção de uma arquitetura e uma ferramenta aptas a minimizar o impacto dessas dificuldades no desenvolvimento de Sistemas Baseados em Inteligência Computacional (SBIC). Essa proposta traz consigo a inovação na forma como esses sistemas são desenvolvidos ao unir os algoritmos (técnicas) presentes nessa linha de pesquisa (IC) com aspectos da Computação em Nuvem criando um novo conceito: Inteligência Computacional como Serviço (CIasS, do inglês Computational Intelligence as a Service). Foi realizado um mapeamento sistemático sobre ferramentas que apoiam a construção de SBIC para obter uma visão geral dessa linha de pesquisa, além de facilitar a definição dos requisitos necessários para superar, de forma holística, as dificuldades supracitadas. Com os requisitos detalhados, foram desenvolvidas uma arquitetura e uma ferramenta com os seguintes princípios: simplicidade, extensibilidade, software como serviço, alta performance e colaboração. Ambas, arquitetura e ferramenta representam juntas a principal proposta deste trabalho e foram intituladas Athena.

     

     

     

  • KALYF ABDALLA BUZAR LIMA
  • Método adaptativo com limiarização local para segmentação de veículos.

  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 01/03/2016
  • Mostrar Resumo
  • A segmentação de veículos é um problema não linear que tem sido atacado na literatura utilizando técnicas de extração de plano de fundo. Nessas técnicas, os dados são classificados em duas classes: plano de fundo e primeiro plano. Os veículos a serem segmentados, neste caso, compõem parte do primeiro plano. Dois métodos muito utilizados para estimar o plano de fundo em ambientes não-controlados são o modelo de mistura de gaussianas de Stauffer e Grimson e o modelo não-paramétrico de Horprasert. Embora esses métodos apresentem resultados satisfatórios, no problema da segmentação de veículos, a classificação é deficiente e ocorrem erros nesse processo. O sistema proposto neste trabalho atua na redução dessas deficiências. Entre elas, os erros de classificação nas regiões internas dos veículos. Para aprimorar o processo de segmentação e reduzir as falhas, o sistema proposto conta com duas etapas: a filtragem e a estimação de limiar. Enquanto a filtragem busca corrigir e detectar os erros de classificação, a estimação de limiar realiza uma realimentação na próxima iteração da classificação. A realimentação é realizada com o objetivo de melhorar a classificação do primeiro plano, atuando unicamente nessas áreas. Para avaliar a proposta, quatro bases foram criadas. Essas bases avaliam os métodos testados considerando as mudanças e os fatores de variação ao longo do dia. Dessa forma, o sistema proposto é avaliado como uma solução prática viável para ser utilizada. Os resultados das métricas de avaliação utilizadas neste trabalho se mostram maiores no sistema proposto. Contudo, ainda mais importante que os acertos é a estabilização do comportamento da proposta sob variação dos fatores. A estabilidade de comportamento permite a definição de limiares fixos para todos os contextos, o que não é um indicado para os outros métodos testados. 

  • FELIPE MONTE MACHADO MAGALHÃES DE SOUSA
  • Uma otimização do Perceptron Multicamadas utilizando Aproximação Quadrática e Método do Ponto Proximal
  • Orientador : PAULO SERGIO MARQUES DOS SANTOS
  • Data: 29/02/2016
  • Visualizar Dissertação/Tese   Mostrar Resumo

  • Por conta de sua alta capacidade de generalização, predição e auto-ajuste, as redes neurais artificiais têm sido amplamente usadas em muitas áreas de pesquisa e mercado. Dentre essas redes, o perceptron multicamadas é uma das mais usadas. Baseado em modelos de otimização e no algoritmo backpropagation, o PMC pode solucionar qualquer problema que possa ser mapeado em seus sinais de entrada. Entretanto, o processo de treinamento do PMC pode convergir antes de alcançar os valores ótimos, o que resultaria em um pequeno erro em seu aprendizado. Este trabalho propõe o uso de modelos de otimização para cálculo do tamanho da taxa de aprendizagem e determinação de uma direção de descida e adaptá-los ao PMC para torná-lo mais robusto, fazendo com que o aprendizado do mesmo se aproxime mais da solução ótima, diminuindo assim o erro.

  • VILMAR PEREIRA RIBEIRO FILHO
  • Rotulação de Grupos utilizando Conjuntos Fuzzy.
  • Orientador : VINICIUS PONTE MACHADO
  • Data: 29/02/2016
  • Mostrar Resumo
  • O problema de agrupamento (clustering) tem sido considerado como um dos problemas mais relevantes dentre aqueles existentes na área de aprendizagem de máquina não-supervisionada. Embora o desenvolvimento e aprimoramento de algoritmos que solucionam esse problema tenham sido o principal foco de muitos pesquisadores, a compreensão da definição dos grupos é tão importante quanto a formação dos grupos (clusters). Uma boa definição de um cluster representa um entendimento significativo e pode ajudar na interpretação dos dados. Frente ao problema de compreender a definição dos clusters, é descrita uma solução que utiliza a teoria de conjuntos fuzzy para identificar os elementos mais relevantes do agrupamento e modelar faixas de valores que sejam capazes de identificar cada um dos clusters, baseando-se em características únicas. Os experimentos realizados demostram que o modelo proposto é bastante factível e capazes de construir faixas de valores para a identificação dos clusters, assim como classificar novos elementos utilizando as definições fornecidas.

  • THIAGO ALLISSON RIBEIRO DA SILVA
  • Estudo e Desenvolvimento de Abordagens para a Determinação da Sequência de Ajustes no Controle da Magnitude de Tensão Aplicada a Sistemas de Transmissão de Energia Elétrica Considerando Aspectos da Infraestrutura de Comunicação de Dados

  • Orientador : RICARDO DE ANDRADE LIRA RABELO
  • Data: 29/02/2016
  • Mostrar Resumo
  • O controle da magnitude de tensão é uma tarefa fundamental para a operação do sistema transmissão de energia elétrica, sendo aplicado à manutenção das magnitudes de tensão dentro de limites pré-determinados definidos por órgãos de regulamentação. Para execução do controle da magnitude de tensão são necessárias informações relacionadas ao estado do sistema e quais dispositivos de controle podem ser ajustados para levar o sistema à operação adequada. Neste contexto, este trabalho propõe o estudo e o desenvolvimento de abordagens, constituídas por três componentes, para execução da regulação da magnitude de tensão nos sistemas de transmissão de energia elétrica. O primeiro componente, aqui denominado Gestor de Controle, é responsável por determinar a sequência dos ajustes nas injeções de potência reativa para corrigir as tensões nas barras de carga cujas magnitudes estejam fora dos limites adequados. Tais ajustes são determinados em função de uma análise de sensibilidade baseada na matriz Jacobiana reduzida JQV das equações de balanço de potência do sistema, a qual relaciona variações da injeção de potência reativa com variações nas magnitudes de tensão nas barras do sistema. O segundo componente consiste nos Nós de Controle, responsável por receber os comandos definidos pelo Gestor de Controle e efetuar os ajustes recomendados. Por fim, o terceiro componente consiste na Infraestrutura de Comunicação, responsável pela transmissão dos dados que caracterizam o estado do sistema e os comandos a serem executados pelos Nós de Controle. Simulações computacionais nos sistemas IEEE de 14 e 57 barras são realizadas para avaliar o funcionamento das abordagens propostas considerando cenários operacionais com violações de tensão. As simulações fazem uso da ferramenta NS-3 (Network Simulator 3) de modo a representar os elementos de comunicação e obter métricas relativas ao tráfego de dados, computando a disponibilidade média das redes WiMAX (Worldwide Interoperability for Microwave Access) e DWDM (Dense Wavelength Division Multiplexing). Os resultados obtidos fornecem o despacho de potência reativa necessário para a correção das violações de tensão, os perfis de tensão nas barras e as perdas de potência ativa no sistema à medida que os ajustes são realizados e o tráfego de dados associados aos comandos de regulação.

     

     

  • JEFFERSON HENRIQUE CAMELO SOARES
  • Uma Abordagem para a Caracterização do Cancelamento Eletivo de Contratos em Planos de Saúde Privados

  • Data: 29/02/2016
  • Mostrar Resumo
  • Uma diversidade de fatores influencia na expectativa de vida de uma pessoa, e um fator fundamental é o cuidado com a própria saúde. Porém, o cuidado com a saúde não possui um baixo custo; empresas privadas, denominadas Operadoras de Plano de Saúde(OPS), são geralmente responsáveis pelo pagamento das contas de medicamentos, exames médicos, internações e outros custos hospitalares. O funcionamento financeiro estável da OPS está diretamente relacionado à permanência dos beneficiários na empresa e, portanto, inversamente relacionado à quantidade de cancelamentos eletivos desses contratos. O cancelamento eletivo tipifica-se quando o beneficiário decide, de forma deliberada, cancelar o contrato estabelecido com a OPS, fato que pode comprometer a receita desta. O objetivo principal deste trabalho consiste em desenvolver uma abordagem para caracterizar o cancelamento eletivo de contratos em planos de saúde privados. A abordagem proposta é constituída por três fases:Pré-Processamento, Mineração de Dados e Priorização de Contratos.A fase de Pré-Processamento visa garantir uma maior qualidade às informações de contratos extraídos da base de dados de uma OPS real. A fase de Mineração de Dados explora os dados pré-processados com o intuito de descobrir novos conhecimentos, ou seja, padrões, relacionamento entre atributos e tendências ainda não conhecidas pela gestão da OPS. Essa fase de Mineração de Dados é responsável por reconhecer contratos ativos com características de contratos já cancelados, por meio de modelos de classificação; identificar que tipos de ações e comportamentos levam os beneficiários da OPS a cancelarem seus contratos, por meio da análise de árvores de decisão; e   estimar o tempo restante até o cancelamento do contrato, por meio de técnicas de regressão. Dessa forma, a gestão da OPS pode interceder de forma proativa no problema do cancelamento, ou seja, anteceder-se à possível saída de um beneficiário da empresa e promover ações que evitem tal evento. A fase de Priorização de Contratos objetiva evidenciar quais contratos apresentam um maior risco de serem cancelados, permitindo que a gestão da OPS possa avaliá-los de forma priorita´ria. Por fim, é realizado em conjunto de experimentos demosntrando passo-a-passo a execução prática da abordagem proposta, com a apresentação dos resultados e discussões.

  • ALEXANDRE CARDOSO FONTINELE
  • Um Novo Algoritmo RSA Ciente de Imperfeições de Camada Física para Redes Ópticas Elásticas

  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 19/02/2016
  • Mostrar Resumo
  • A rede óptica elástica baseada na tecnologia OFDM (Orthogonal Frequency Division Multiplexing) é uma candidata promissora para transportar o tráfego heterogêneo no futuro das redes de alta velocidade. Isso se deve a sua capacidade de alocar de maneira mais eficiente a largura de banda da fibra óptica quando comparada a rede óptica WDM (Wavelength Division Multiplexing). Para que ocorra a transmissão dos dados em uma rede óptica é necessária à resolução do problema de roteamento e alocação de espectro para o estabelecimento de um circuito óptico. A dinâmica de alocação e liberação de

    recursos espectrais nas redes ópticas elásticas provoca a fragmentação do espectro óptico, problema que pode influenciar diretamente a eficiência dessas redes. Além disso, à medida que o sinal óptico se propaga ele sofre degradação devido às imperfeições de camada física. Assim, os algoritmos que buscam solucionar o problema de roteamento e alocação de espectro devem levar em conta a fragmentação de espectro gerada na rede e a qualidade de transmissão do circuito a ser estabelecido. Este trabalho propõe um novo algoritmo de roteamento e alocação de espectro ciente dos efeitos de camada física para redes ópticas elásticas. O objetivo do algoritmo é reduzir a probabilidade de bloqueio causada pela degradação da qualidade de transmissão proveniente de novos estabelecimentos de circuitos. A proposta é comparada com outros dois algoritmos Impairment-Aware Routing and Spectrum Assignment (IA-RSA): Modified Dijkstra Path Computation (MD-PC) e K-Shortest Path Computation (KS-PC). Resultados de simulação mostram que o algoritmo proposto apresenta um desempenho superior ao dos algoritmos MD-PC e KS-PC em termos de i) probabilidade de bloqueio de circuitos, ii) probabilidade de bloqueio de banda, iii) justiça no atendimento de diferentes pares de nós origem e destino e iv) justiça no atendimento de diferentes larguras de banda para as topologias EON e NSFNet. Em geral, em termos de probabilidade de bloqueio de circuitos o algoritmo proposto apresenta um ganho mínimo de 78,10% e 55,75% quando comparado aos algoritmos KS-PC e MD-PC, respectivamente. Em termos de probabilidade de bloqueio de banda o algoritmo proposto apresenta um ganho mínimo de 71,96% e 41,89% em relação aos algoritmos KS-PC e MD-PC, respectivamente. E em termos de justiça o algoritmo proposto apresenta um desempenho superior quando comparado aos algoritmos KS-PC e MD-PC.

     

     

2015
Descrição
  • WANDERSON ANTONIO DE SOUSA SILVA
  • Sistema de Planejamento de Movimentos para robôs com rodas usando Sistema Fuzzy do Tipo-2 Intervalar.

  • Orientador : ANDRE MACEDO SANTANA
  • Data: 31/08/2015
  • Mostrar Resumo
  • A vida do ser humano tem se tornado cada vez mais confortável com os principais avanços da robótica. Estes avanços contribuíram com o aumento da qualidade de vida e propostas de soluções para diversas tarefas do dia-a-dia sejam elas domésticas, industriais, militares e segurança pública. Os primeiro robôs eram fixos e constituídos basicamente de braços manipuladores. Os manipuladores movem-se com grande velocidade e precisão para o desenvolvimento de tarefas repetitivas, tais como a soldagem e a pintura. Porém, estes robôs comerciais sofrem de uma desvantagem fundamental: a perda da mobilidade. Neste contexto, surge o robô autônomo móvel que tem a habilidade de mover-se em seu ambiente e desenvolver inúmeras tarefas. Um robô móvel deve estar apto às mudanças do seu ambiente, aprender com suas experiências e mudanças de comportamento de forma apropriada e construir uma representação interna de seu ambiente para que possa ser usado em processos de navegação. No entanto, um problema comum em navegação autônoma é a necessidade de lidar com uma grande quantidade de incerteza provinda dos sensores do robô. Muitas destas fontes de incerteza influenciam o desempenho do sistema de navegação autônoma. Para lidar com informação aproximada, incerta ou incompleta, a lógica fuzzy, que é inspirada na capacidade de raciocinar uma informação percebida pelo ser humano, tornou-se uma abordagem satisfatório e comum entre os pesquisadores da área de robótica autônoma. Uma solução tipicamente utilizada em navegação autônoma são os Sistemas de Inferência Fuzzy do Tipo-1. No entanto, estes sistemas possuem limitada capacidade de representar as incertezas em suas funções de pertinência. Alternativamente, Sistemas de Inferência Fuzzy do Tipo-2 possibilitam modelar essas incertezas com melhor desempenho. O principal objetivo deste trabalho é desenvolver um sistema de planejamento de movimento para robôs de pequeno porte, com rodas, em ambientes indoors incertos, e desconhecidos, usando um sistema de inferência fuzzy do tipo-2 intervalar para um mapeamento qualitativo. Para o desenvolvimento do sistema, são realizadas simulações em que o robô deverá navegar em cenários complexos, com a finalidade de verificar a robustez e eficiência do sistema. Para alcançar esse objetivo, foram realizados: uma modelagem do erro do sonar do robô, uma comparação com os sistemas fuzzy tipo-1 e tipo-2 intervalar nos cenários propostos, a implementação de uma abordagem fuzzy tipo-2 intervalar para navegação segura, implementação de uma estratégia de exploração em ambientes desconhecidos e propor uma abordagem qualitativa para o mapeamento do robô. Os resultados encontrados nos três experimentos propostos permitem deduzir que esta abordagem ofereceu uma solução satisfatória para navegação de robôs autônomos.

  • ROGÉRIO FIGUEREDO DE SOUSA
  • Abordagem TOP X para Inferir os Comentários mais Importantes sobre Produtos e Serviços

  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 13/08/2015
  • Mostrar Resumo
  • No contexto do constante crescimento da Web, diversos serviços foram virtualizados, incluindo o surgimento do comércio eletrônico (e-commerce). Tanto tradicionalmente quanto através de e-commerce, as pessoas necessitam comparar produtos e serviços para nortear suas decisões por meio da análise das características desejadas. A mudança que a Web ocasionou foi a exposição de suas opiniões em sites de compra e venda, fóruns na Web, redes sociais ou ainda grupos de discussão, permitindo sua visualização por qualquer pessoa que necessite. Porém, com o grande crescimento da Web, a quantidade de dados também aumentou, impossibilitando a coleta manual dessas opiniões. Logo, a busca automática de opiniões, promoveu o crescimento da área de Análise de Sentimentos, a qual é responsável por criar técnicas automáticas para coletar, analisar e sumarizar as opiniões encontradas em diversos locais na Web. Este trabalho apresenta a abordagem TOP(X) para estimar a importância de comentários disponibilizados por clientes na Web, por meio do uso de um sistema Fuzzy. O sistema Fuzzy possui três variáveis de entrada: reputação do autor, número de tuplas <característica, palavra opinativa> e a porcentagem de palavras escritas corretamente; e uma variável de saída: grau de importância do comentário. Realizou-se também um experimento para comparar os resultados de um método de orientação semântica executado sobre todos os comentários e sobre uma seleção dos melhores comentários de um corpus. O experimento foi conduzido com 1576 comentários sobre smartphones (982 positivos e 594 negativos) e nossa abordagem melhorou os resultados do método de orientação semântica em aproximadamente 10% na medida F-measure para comentários positivos e 20% para comentários negativos.

     

  • ALEXANDRE TOLSTENKO NOGUEIRA
  • Um Estudo sobre a Formação de Equipes em Jogos Virtuais

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 23/07/2015
  • Mostrar Resumo
  • Com a popularização da internet muitas pessoas trabalham ou buscam entretenimento em meios virtuais. Levando em consideração esta tendência, a formação de equipes para a execução de um trabalho ou em um jogo de equipes passou a ter grande importância. Neste sentido, o presente estudo objetivou criar e analisar uma abordagem para formação de equipes que melhore o engajamento de usuários em jogos eletrônicos em grupo, diminuindo a taxa de abandono, por meio da formação de equipes equilibradas, combinadas automaticamente pelo sistema de formação de partidas (match making). Tomou-se o Dota 2 como referência prática de jogo real, pois possui uma ampla variedade de heróis, que juntamente com a forma de jogar de cada usuário, torna cada batalha singular. Abordou-se a formação de equipes em um dos gêneros de jogos mais famosos, conhecido como Multiplayer Online Battle Arena (MOBA), de ação e estratégia em tempo real, onde equipes se enfrentam em um campo de batalha. Para investigar a formação e balanceamento das equipes, foram analisadas cerca de 11 milhões de partidas para classificar o perfil do jogador. Foram encontrados 12 agrupamentos de desempenho de usuário do DOTA 2 e, em seguida identificados os perfis de comportamento comuns de cada cluster, usados na criação de uma abordagem voltada para a eleição de jogadores na formação de partidas. Comprovou-se que quanto maior o grau de desbalanceamento de classes entre os jogadores das equipes, menor a duração da partida e a equipe vencedora sobrepuja a outra com uma diferença maior de pontos. A metodologia para detectar desbalanceamento pode ser aplicada na formação de equipes em jogos virtuais e proporcionar melhorias no grau de engajamento.

  • DANILO BATISTA MEDEIROS
  • Introdução de Gamificação no Desenvolvimento de Software

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 23/07/2015
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

    O desenvolvimento de software é uma atividade em muitos momentos excitante e desafiadora, mas em outros momentos pode apresentar-se como uma atividade enfadonha. Ao mesmo tempo, a introdução de elementos de jogos em atividades como ensino de engenharia de software e websites evidencia que atividades do mundo real podem incorporar elementos de game design tornando-as mais interessantes e divertidas. Neste trabalho propomos a introdução de elementos da teoria de jogos no desenvolvimento de software, especialmente no processo Scrum, incluindo elementos para estimular a aderência às prescrições do processo, além de aumentar a produtividade. São apresentadas as mecânicas idealizadas, avaliação dessas mecânicas em uma equipe real, além de resultados e dificuldades a partir de um estudo de caso realizado em uma equipe de desenvolvimento de uma instituição privada.

  • NATHAN FRANKLIN SARAIVA DE SOUSA
  • Uma Arquitetura Programável para Escolha do Paradigma de Comutação em Redes Ópticas Híbridas OCS/OBS

  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 08/07/2015
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O significativo crescimento da Internet e o surgimento de novas aplicações têm contribuído para um aumento da demanda de largura de banda. Em virtude disto, as principais redes de transporte do mundo utilizam redes ópticas, especialmente por causa do grande potencial de transmissão da fibra óptica. Mais recentemente, a literatura vem apontando o uso de redes ópticas com comutação híbrida como uma alternativa para melhor adaptar os diferentes tipos de comutação ao tráfego heterogêneo das redes de transporte. Em uma rede óptica híbrida dois ou mais paradigmas de comutação podem ser utilizados ao mesmo tempo para transportar diferentes tipos de tráfego. Este trabalho de mestrado propõe uma arquitetura para redes ópticas híbridas que utilizam dois paradigmas de comutação: Comutação de Circuitos Ópticos (Optical Circuit Switching - OCS) e a Comutação de Rajadas Ópticas (Optical Burst Switching - OBS). A arquitetura proposta viabiliza a definição de regras de classificação de fluxos de tráfego das redes de acesso IP. Além disso, sinaliza para rede óptica híbrida o paradigma mais apropriado, OCS ou OBS, a ser utilizado. A solução proposta utiliza a flexibilidade das redes definidas por software, mais especificamente o protocolo OpenFlow, para permitir a implementação de diferentes regras de classificação. O processo de sinalização é validado através de experimentos usando o OpenFlow. É apresentado um estudo de avaliação de desempenho da arquitetura utilizando o simulador TONetS. As métricas utilizadas para o processo de avaliação foram a utilização efetiva da rede e o percentual de entrega de dados.

  • JOSÉ VICTOR VASCONCELOS SOBRAL
  • Um Framework para Melhorar o Desempenho de Aplicações de Internet das Coisas Baseadas em RSSF e RFID

  • Data: 08/06/2015
  • Visualizar Dissertação/Tese   Mostrar Resumo
  •  

    A Internet das Coisas (IoT) é um paradigma que promove a interligação de diferentes objetos por meio da utilização de diversas tecnologias. Para que as aplicações de IoT possam realizar suas tarefas com eficiência, é necessário que a estrutura de rede utilizada disponha de alguns recursos chaves, tais como: capacidade de rastreamento e identificação única, eficiência energética e ubiquidade. No entanto, dificilmente uma única tecnologia é capaz de proporcionar tais recursos. A integração das redes de sensores sem fio (RSSF) e a identificação por rádio frequência (RFID) surge como uma abordagem importante para o desenvolvimento das aplicações de IoT. Contudo, ao integrar estas tecnologias novos desafios tendem a surgir. Assim, este trabalho propõe um framework que tem como objetivo prover os recursos requeridos pelas aplicações de IoT com mais eficiência observando os problemas oriundos da integração. Os resultados obtidos por meio de simulação mostram que, para os cenários avaliados, a utilização do framework proposto é capaz de aumentar o desempenho do processo de identificação das etiquetas RFID, reduzir as taxas de perda de pacotes, reduzir o consumo de energia dos nós e melhorar o balanceamento de carga da rede. Esses benefícios proporcionam maior eficiência energética e qualidade de serviço para as aplicações de IoT.

     

     

     

  • BRUNO VICENTE ALVES DE LIMA
  • Método semissupervisionado de rotulação e classificação utilizando agrupamento por sementes e classificadores

  • Orientador : VINICIUS PONTE MACHADO
  • Data: 27/03/2015
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Na tarefa de classificação utilizando algoritmos de aprendizado de máquina, considera-se a existência de uma base de dados chamada conjunto de treinamento. Esse conjunto possui exemplos que são rotulados(pré-classificados) e utilizados no treinamento do classificador. Deve ter um total de exemplos significativo e equilibrado para que, após o treinamento, o classificador tenha um desempenho satisfatório. Porém, na maioria dos casos reais, obter esse conjunto de treinamento com a quantidade de exemplos suficientes para induzir um classificador no treinamento pode ser oneroso, pois é necessário que seja realizada uma rotulação dos dados por um especialista no problema em questão. Exemplos não-rotulados são mais fáceis de serem coletados em comparação aos que possuem rótulos. A literatura mostra o interesse da comunidade científica em uma nova abordagem de aprendizado chamada de semissupervisionada. Este tipo de aprendizado trabalha em um cenário em que existe um conjunto de dados rotulados, insuficiente para treinar um classificador, juntamente com um outro conjunto com dados não-rotulados, também, disponível no treinamento. O objetivo do trabalho é propor um método que visa rotular dados a partir de um pequeno conjunto rotulado. Esse método combina um classificador e um agrupador para realizar a tarefa de classificação de forma simples em relação à outros métodos encontrados na literatura. Foram realizados experimentos utilizando 5 bases de dados e os resultados comparados com os algoritmos co-training e k-meanski, que são outros algoritmos semissupervisionados que possui o mesmo propósito.

  • IALLEN GABIO DE SOUSA SANTOS
  • Alocação de Recursos Para o Estabelecimento de Circuitos em Redes Ópticas WDM e OFDM

  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 26/03/2015
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O aumento da demanda de tráfego e o surgimento de novas aplicações com exigência cada vez maior de Quality of Service (QoS) requerem uma capacidade cada vez maior por parte das redes de transporte. A utilização de fibras ópticas como meio físico para a transmissão de dados permite altas taxas de transmissão e imunidade a interferências eletromagnéticas. Desta forma as redes ópticas vêm sendo estudadas como principal alternativa para compor os backbones das redes de transporte. O estabelecimento de um circuito óptico exige a reserva prévia de recursos da rede. Uma requisição de circuito é rejeitada na indisponibilidade de recursos para o seu estabelecimento, caracterizando o bloqueio do circuito. Os algoritmos de alocação de recursos em redes ópticas devem escolher um conjunto de recursos para cada requisição de circuito visando a minimização dos bloqueios de circuitos ópticos. Os recursos necessários para o estabelecimento de um circuito óptico dependem do tipo de rede óptica. Nesta dissertação de mestrado são abordadas as redes ópticas Wavelength Division Multiplexing (WDM) e as redes ópticas Ortogonal Frequency Division Multiplexing (OFDM). No âmbito deste trabalho de mestrado dois algoritmos de alocação de recursos foram propostos. O primeiro foi o algoritmo de roteamento Melhor entre as Menores Rotas com Decisão por Similaridade (MMRDS). A segunda proposta foi um algoritmo para alocação de regeneradores em redes ópticas WDM translúcidas, chamado Alocação Preventiva de Regeneradores (APR). Ambos os algoritmos apresentaram melhor desempenho quando comparados, via simulação, com outras propostas da literatura. Por último esta dissertação apresenta um estudo de avaliação de desempenho de algoritmos de alocação de recursos para redes de circuitos ópticos OFDM.  Para dar suporte à avaliação dos algoritmos de alocação de recursos para o estabelecimento de circuitos ópticos OFDM foi desenvolvida a ferramenta SLICE Network Simulator (SNetS).

2014
Descrição
  • RÔNALDY SOUSA OLIVEIRA
  • Aplicação de Algoritmos de Otimização na Detecção de Contato entre Superquádricas Convexas

  • Orientador : PAULO SERGIO MARQUES DOS SANTOS
  • Data: 18/08/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Apresentamos um algoritmo usado para detectar o contato e encontrar a distância entre dois objetos convexos. Esta distância é definida como o comprimento do caminho mais próximo ligando um objeto ao outro. O problema é formulado como um problema de otimização convexo, com restrições não lineares, que é resolvido por um método de penalidades. Relatamos experiências numéricas que ilustram o comportamento do método proposto.

  • FLÁVIO HENRIQUE DUARTE DE ARAÚJO
  • Descoberta do Conhecimento em Base de Dados para o Aprendizado de Regulação Médica/Odontológica em Operadora de Plano de Saúde


  • Orientador : ANDRE MACEDO SANTANA
  • Data: 16/05/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O Brasil possui um dos maiores mercados de saúde suplementar do mundo. Entretanto, verifica-se que muitos procedimentos médicos estão sendo realizados sem necessidade, gerando custos desnecessários às empresas e fazendo com que o serviço oferecido custe mais caro. A regulação é um mecanismo de controle utilizado pelas operadoras de plano de saúde para minimizar o desperdício de recursos através do bloqueio dos procedimentos que foram indevidamente solicitados. Porém, para um processo de regulação eficiente é necessário a presença de um médico regulador 24 horas por dia ocasionando um aumento na despesa operacional da prestadora do serviço. Neste contexto, o presente trabalho apresenta um processo de Descoberta de Conhecimento em Base de Dados para o aprendizado automático da regulação médica/odontológica a partir dos dados odontológicos de uma operadora de plano de saúde sem fins lucrativos contendo registros coletados desde o ano de 2007. Na etapa de pré-processamento foram utilizados técnicas para mitigar os seguintes problemas: seleção de atributos relevantes, balanceamento de classes e valores desconhecidos. Na etapa de mineração foram testados três classificadores dos paradigmas simbólico, estatístico, baseado em exemplos e conexionista. Além disso, técnicas de combinação de classificadores foram utilizadas e o resultado final da classificação possui taxa de acerto superior a 95%.

  • RAFAEL TORRES ANCHIÊTA
  • Uso de PLN para extrair elementos de interface de usuário a partir de descrições de requisitos de software

  • Orientador : RAIMUNDO SANTOS MOURA
  • Data: 27/03/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Diversos artefatos precisam ser criados durante o processo de desenvolvimento de software, tais como: diagramas, documentos do projeto, modelos UML, protótipos de interface, código fonte, casos de testes, entre outros. Criar esses artefatos demanda muito tempo e recursos. Nesta dissertação, apresenta-se a ferramenta EasyGUI Prototyping que contribui para a geração de protótipos de interface de usuário, diagramas de classe e diagramas de casos de uso a partir de descrições textuais de casos de uso utilizando técnicas de processamento de linguagem natural. A ferramenta implementa dois métodos que viabilizam a identificação dos elementos dos diagramas e dos protótipos de interface chamados de padrões linguísticos e estrutura frasal. Os métodos foram avaliados através do uso de métricas da área de recuperação de informação. Posteriormente, um estudo experimental foi realizado em ambiente acadêmico e ambiente industrial com o intuito de avaliar se a ferramenta desenvolvida contribui para reduzir o esforço na criação de protótipos e ainda mantém ou melhora a qualidade compatível com a geração manual.

  • LUCAS ARAÚJO LOPES
  • Rotulação Automática de Grupos através de Aprendizagem de Máquina Supervisionada

  • Orientador : VINICIUS PONTE MACHADO
  • Data: 26/03/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O problema de agrupamento (clustering) tem sido alvo de muitos pesquisadores sendo considerado como um dos problemas mais relevantes dentre aqueles existentes na área de pesquisa de aprendizagem não-supervisionada (subárea de Aprendizagem de Máquina). Embora o desenvolvimento e aprimoramento de algoritmos que solucionam esse problema tenha sido o principal foco de muitos pesquisadores o objetivo inicial se manteve obscuro: a compreensão dos grupos formados. Tão importante quanto a identificação dos grupos (clusters) é a compreensão e definição dos mesmos. Uma boa definição de um cluster representa um entendimento significativo do mesmo e pode ajudar o especialista ao estudar ou interpretar dados. Frente ao problema de compreender clusters – isto é, de encontrar uma definição ou em outras palavras, um rótulo – este trabalho apresenta uma definição para esse problema, denominado problema de rotulação, além de uma solução baseada em técnicas com aprendizagem de supervisionada, não-supervisionada e um modelo de discretização. Dessa forma, o problema é tratado desde sua concepção: o agrupamento de dados. Para isso, um método com aprendizagem não-supervisionada é aplicado ao problema de clustering e então um algoritmo com aprendizagem supervisionada irá detectar quais atributos são relevantes para definir um dado cluster. Adicionalmente, algumas estratégias são utilizadas para formar uma metodologia que apresenta em sua totalidade um rótulo (baseado em atributos e valores) para cada grupo fornecido. Finalmente, os resultados dessa metodologia são aplicados e analisados em quatro bases de dados distintas.

  • HILDEBRANDO ALVES DE ARAÚJO SEGUNDO
  • Pré-Busca de Dados em Arquiteturas Multicore com Memória Local de Rascunho

  • Orientador : IVAN SARAIVA SILVA
  • Data: 25/03/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As arquiteturas de microprocessadores evoluíram significativamente desde seu surgimento em 1971. O Intel 4004, que foi o primeiro microprocessador comercializado, trabalhava com registradores de 4 bits, tinha apenas 46 instruções e sua integração requereu cerca de 2300 transistores, ocupando um área de 12 mm², com uma tecnologia de 10um. Atualmente, quando vivemos a era dos microprocessadores multicore, temos, por exemplo, o microprocessador Intel Xehon Phi, que integra 10 núcleos de processamento, requer aproximadamente 5 bilhões de transistores para a sua integração, usando uma tecnologia de 22 nm.

     Esta evolução, que se deu como resultado da constante busca pelo aumento de desempenho, teve dois “atores” principais. A evolução dos processos tecnológicos de integração, por um lado, implicaram em redução de área e aumento da freqüência  de execução.  Evoluções arquiteturais, por outro lado, contribuíram significativamente para a melhoria e aceleração do processamento. Entre as evoluções arquiteturais pode-se citar como estando entre as mais importantes, a utilização de hierarquias de memória, que permitiu reduzir o tempo de acesso a instruções e dados e o modelo de execução em pipeline, que permitiu aumentar a vazão no que se refere a execução de instruções.

     Nos últimos anos, devido a integração de múltiplos núcleos de processamento no mesmo chip (arquitetura multicore, many-core ou Multiprocessor Systems on Chip), observou-se que o problema conhecido como Memory Wall migrou da interface entre o microprocessador e a memória externa, para o interior dos chip, situando-se entre a interface dos núcleos e a memória local. Uma alternativa para minimizar ou resolver este problema está na redefinição das hierarquias de memória das arquiteturas multicore utilizando memória local de rascunho. As memórias locais de rascunho apresentam vantagens quando comparadas as memórias cahce devido a: (1) menor consumo de energia; (b) flexibilidade quanto ao gerenciamento.

     Nesta dissertação propomos a utilização do método de pré-busca de dados como uma técnica de gerenciamento da memória local de rascunho de arquiteturas multicore. Para validação da proposta um bloco de hardware será desenvolvido com o auxílio da linguagem VHDL, uma vez prototipado o bloco de hardware será validado por simulação e prototipagem em placas de desenvolvimento dotadas de circuitos reconfiguráveis (FPGA – Field Programmable Gate Array).

  • ROMUERE RODRIGUES VELOSO E SILVA
  • Detecção Automática do Uso de Capacete por Motociclistas em Vias Públicas

  • Orientador : KELSON ROMULO TEIXEIRA AIRES
  • Data: 19/03/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O número de acidentes envolvendo motocicletas tem aumentado rapidamente ao longo dos anos em muitos paises. Esse tipo de veiculo está se tornando cada vez mais popular, devido a vários fatores econômicos e sociais. O capacete é o principal equipamento de segurança dos motociclistas. Apesar disso, muitos motociclistas não o utilizam ou o utilizam de forma incorreta. A principal função do capacete é proteger a cabeça do motociclista em caso de acidente. Em casos de acidentes, o não uso do capacete pode pode ser fatal. Esse trabalho tem como objetivos explicar e esclarecer: um método para detecção e classificação de motocicletas em vias públicas; um sistema para detecção de motociclistas sem capacete. Para isso, utilizou-se, para extração de atributos, a Transformada Wavelet, e os descritores Histograms of Oriented Gradients, Local Binary Pattern, Speeded Up Robust Features e Transformada Circular de Hough. Foram utilizados também os classificadores Máquina de Vetor de Suporte, Perceptron de Múltiplas Camadas, Redes de Função de Base Radial, Naive Bayes, Random Forest, K-vizinhos mais próximos além de Sistema de Múltiplos Classificadores. Foram utilizadas imagens de tráfego capturadas por câmeras em vias públicas. O melhor resultado obtido na classificação de veiculos foi uma taxa de acerto igual a 97, 78% utilizando a Transformada Wavelet e classificador Random Forest. A fase de detecção do uso do capacete de uma acurácia máxima de 91, 37%, que foi obtida utilizando o descritor Histograms of Oriented Gradients e o classificador Perceptron de Múltiplas Camadas.

  • IGO COUTINHO MOURA
  • Avaliação de Desempenho de Redes Ópticas Híbridas OCS/OBS

  • Orientador : ANDRE CASTELO BRANCO SOARES
  • Data: 24/02/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Atualmente as redes ópticas são apontadas como a principal tecnologia para compor a atual infraestrutura
    das redes de transportes e atender a crescente demanda por banda passante em seu
    backbone. Uma rede óptica transparente é caracterizada pela inexistência do processamento
    eletrônico no plano de dados. Existem diferentes alternativas que viabilizam a comunicação
    em redes ópticas transparentes. Uma delas consiste em combinar os paradigmas Optical Circuit
    Switching (OCS) e Optical Burst Switching (OBS) em uma única rede. Essa arquitetura
    é denominada de rede óptica com comutação híbrida OCS/OBS. Essa dissertação de mestrado
    apresenta um estudo de avaliação de desempenho de redes ópticas transparentes com comutação
    híbrida OCS/OBS. Para viabilizar o estudo foi desenvolvida uma ferramenta
    de simulação de redes ópticas com comutação híbrida, denominada Hybrid Optical Network
    Simulator (HOSNetS).

  • JONATHAS JIVAGO DE ALMEIDA CRUZ
  • Uma abordagem Hibrida para Geração de Portfolios em Linhas de Produto de Software

  • Orientador : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: 14/02/2014
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • : Linha de Produto de Software (LPS) é uma abordagem da Engenharia de Software que ganhou ênfase na indústria de software nos últimos anos por permitir o desenvolvimento de sistemas de software por meio da reutilização sistemática de artefatos. Um dos problemas ao adotar essa abordagem está relacionado ao gerenciamento dos produtos da linha. Em LPS, o gerenciamento dos produtos emprega técnicas de escopo para definir o que está dentro e o que está fora da linha. Um dos três tipos de escopo de uma linha é o Escopo de Portfolio de Produtos (EPP). O EPP tem como objetivo determinar quais os produtos devem ser desenvolvidos e quais características (features) eles devem prover. Determinar quais produtos devem pertencer ao escopo envolve aspectos econômicos e de mercado. Portanto, definir um escopo de produtos que atenda aspectos como o custo e satisfação dos usuários é um problema NP-Difícil, uma vez que envolve a combinação de diferentes aspectos que pode levar a uma explosão de combinações. Este trabalho tem como objetivo propor uma abordagem hibrida que se alinha à emergente área de conhecimento denominada Engenharia de Software Baseada em Buscas, por empregar técnicas de Inteligência Computacional para a resolução do problema. Essa abordagem, combina Sistemas Fuzzy, a metaheurística NSGA-II e Software Quality Function Deployment (SQFD), para a geração de portfolios de produtos baseada no custo dos ativos da LPS e na relevância das características para os usuários finais. São apresentadas três aplicações no intuito de validar as ideias propostas, uma primeira realizada em uma LPS pequena, uma segunda com uma LPS maior, em termos de número de linhas, e mais representativa, por ser amplamente utilizada em pesquisas no mundo, e uma terceira com uma LPS fictícia para avaliar a escalabilidade do método.

SIGAA | Superintendência de Tecnologia da Informação - STI/UFPI - (86) 3215-1124 | © UFRN | sigjb04.ufpi.br.instancia1 07/10/2024 05:45