Dissertations/Thesis

2019
Description
  • SELLES GUSTAVO FERREIRA CARVALHO ARAUJO
  • Realocação de Circuito ciente dos Efeitos de Camada Física em Redes Ópticas Elásticas
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Aug 12, 2019
  • Show resume
  • As redes ópticas elásticas (Elastic Optical Networks – EONs), utilizadoras da tecnologia OFDM (Orthogonal Frequency Division Multiplexing), têm se tornado alternativa promissora para lidar com o crescente tráfego de dados. As EONs proporcionam flexibilidade no atendimento de requisições com diferentes larguras de banda, permitindo eficiência na utilização dos recursos da rede. Os recursos para um novo circuito são alocados a partir de algoritmos RMLSA (Routing, Modulation Level and Spectrum Assignment). Estes algoritmos possibilitam a definição da rota, a escolha do formato de modulação e a seleção da faixa de espectro. Além disso, os circuitos devem apresentar qualidade de transmissão (Quality of Transmission – QoT) aceitáveis para operar. Quando os requisitos de alocação não são atendidos, as requisições de circuitos são bloqueadas. As principais causas de bloqueios, no cenário considerado, são devido as imperfeições de camada física (Physical Layer Imperfections – PLI). Para mitigar estes bloqueios, realocações de circuitos podem ser realizadas no intuito de reduzir as PLI em um ou mais enlaces, contribuindo para maior atendimento de requisições na rede. Neste contexto, esta dissertação propõe o uso de realocação de circuitos para redução de bloqueios por imperfeições da camada física, problema denominado como Circuit Reallocation aware of PLI (CR-PLI), e três estratégias de realocação para solucionar tal problema. As soluções são: R-RQoT (Realocação de Circuito para Redução de Bloqueios relacionados à QoT), CRS-PL (Circuit Reallocation Strategy - Physical Layer) e JOC (Just One Circuit Reallocation). As estratégias propostas foram comparadas entre si e com outra estratégia de realocação comumente utilizada na literatura. Para avaliação de desempenho, foram utilizadas as métricas de probabilidade de bloqueio de banda, probabilidade de bloqueio de circuito e número médio de circuitos realocados nas topologias USA e EON.

  • GILVAN VERAS MAGALHÃES JUNIOR
  • Estudo da Influência de Características Textuais no Processo de Automatização da Regulação Médica
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Jun 27, 2019
  • Show resume
  • No Brasil, um dos maiores problemas na área da saúde é a baixa capacidade de assistência dos hospitais públicos para uma grande demanda populacional. Em razão disso, brasileiros têm recorrido a saúde suplementar, atividade que envolve a operação de planos e seguros privados de assistência médica à saúde. Muitas empresas Operadoras de Planos de Saúde (OPS) enfrentam dificuldades financeiras devido a fraudes e/ou abusos na utilização dos serviços de saúde, como por exemplo, execução de procedimentos desnecessários. Com a finalidade de evitar gastos abusivos, as OPS começaram a utilizar um mecanismo chamado regulação, onde uma análise prévia da necessidade de cada usuário é feita para autorizar ou recusar as solicitações requeridas. Normalmente, uma empresa de porte médio recebe diariamente centenas de solicitações, as quais constam os dados pessoais e o quadro clínico do paciente. Assim, faz-se necessária a presença de especialistas para analisar cada solicitação e aprovar ou recusar, incluindo uma justificativa para a decisão. Porém, o gasto para manter uma equipe de especialistas de tamanho proporcional a demanda diária é alto. Por esse motivo as OPS têm buscado técnicas para realizar essa atividade de forma automática ou semiautomática. Este trabalho tem como objetivo estudar a influência do uso de características textuais na avaliação do processo de regulação automática de uma OPS por meio do uso de técnicas de Processamento de Linguagem Natural e Aprendizado de Máquina. Como este estudo possui um problema característico de classificação, foram realizados experimentos utilizando os classificadores KNN, J48, Naive Bayes (NB), Random Forest (RF) e SMO. As características do paciente e as informações textuais do quadro clínico foram utilizadas como entradas para criação do modelo para predizer qual classe um determinado conjunto de características pertence: aprovada ou recusada. Foram estudados diferentes grupos de palavras e os resultados dos experimentos apontam para o classificador RF como o melhor avaliado.

  • ÊNIO LUCIANO VIEIRA BARBOSA
  • Algoritmos IA-RMLSA utilizando Sistemas Fuzzy e a Redução de Interferência nos Circuitos nas Redes Ópticas Elásticas
  • Advisor : JOSE VALDEMIR DOS REIS JUNIOR
  • Data: May 14, 2019
  • View Dissertation/Thesis   Show resume
  • As redes ópticas elásticas mostraram-se promissoras para o futuro das comunicações ópticas, suportando a altas taxas de transmissões de dados. No entanto, alguns problemas, como: roteamento, escolha de modulação, alocação de espectro, fragmentação e interferências nos circuitos, devem ser solucionados para aproveitar amplamente os recursos da rede. Neste contexto, o principal objetivo deste trabalho é o desenvolvimento de duas novas propostas de algoritmos para a solução do problema RMLSA denominados de redução de interferências de circuitos com minimização de slots alocados (CIR-MAS – Circuit Interference with
    Minimum Allocation Slots) e Fuzzy-RQoTO (Fuzzy - Reduction Quality of Transmission Other circuits). O algoritmo CIR-MAS busca selecionar formato de modulação mais resistente a interferências dos circuitos ativos. Além disso, o algoritmo seleciona rota com o mínimo de slots alocados entre as soluções de rotas alternativas, a fim de reduzir o bloqueio causado pela degradação dos circuitos. Já o algoritmo Fuzzy-RQoTO, utiliza um sistema fuzzy para auxiliar na seleção da melhor rota (rota de qualidade) para um dado par (origem, destino), inferindo um grau de pertinência nas métricas fragmentação relativa e quantidade de slots ocupados. Um estudo de avaliação de desempenho foi realizado nas topologias NSFNet e EON comparando o desempenho do algoritmo CIR-MAS e Fuzzy-RQoTO com os algoritmos: K-Shortest Path Computation (KS-PC), Modified Dijkstra Path Computation (MD-PC) e K-Shortest Path com Redução do QoTO (KSP-RQoTO) já propostos na literatura. O algoritmo CIR-MAS e Fuzzy-RQoTO apresentou um ganho mínimo de 40,5% e 27,5% quando comparado ao KS-PC, em termos de probabilidade de bloqueio do circuito, respectivamente. Em termos de probabilidade de bloqueio de largura de banda, o CIR-MAS e Fuzzy-RQoTO apresentou um ganho mínimo de 37,5% e 21,9%
    quando comparado ao KS-PC, respectivamente. Adicionalmente, foi avaliada a eficiência energética dos algoritmos mencionados anteriormente.

  • DOUGLAS LOPES DE SOUSA MENDES
  • Mecanismo de Compressão de Dados para Medidores Inteligentes em um cenário de Smart Grid
  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Apr 12, 2019
  • View Dissertation/Thesis   Show resume
  • As redes elétricas inteligentes apresentam uma nova arquitetura para o sistema elétrico de potência onde, aliadas a novas tecnologias de informação e comunicação, visam garantir o atendimento à demanda requerida assegurando a qualidade, disponibilidade e confiabilidade no fornecimento de energia elétrica. Um dos seus principais componentes são os medidores inteligentes, equipamentos instalados junto aos consumidores, que possuem como função principal registrar informações relacionadas ao consumo. Os dados coletados são transmitidos para a concessionária de energia por meio de uma infraestrutura de comunicação bidirecional e são extremamente valiosos para a concessionária, pois por meio deles é possível prever a demanda de carga elétrica, detectar irregularidades, desenvolver novas políticas de tarifação, entre outros. No entanto, grande volume de dados trafegados pela rede em direção à concessionária podem ocasionar congestionamento na infraestrutura de comunicação, levando a perda de pacotes, aumento na latência, dentre outros problemas. Dessa forma, este trabalho propõe um mecanismo de compressão de dados adaptativo, baseado em ajuste de curvas, que é capaz de representar o perfil de consumo por meio de um modelo funcional. Tal mecanismo está associado ao medidor inteligente e tem como objetivo reduzir a quantidade de dados enviados pelo mesmo. Para avaliar o mecanismo proposto foram utilizados dados de consumo para diferentes perfis, extraídos da ferramenta Load Profile Generator onde os parâmetros passíveis de ajuste (limiar de erro e capacidade de buffer) foram estudados sob diferentes configurações, alcançando uma taxa de compressão de 0.0417. No entanto por utilizar ajuste de curva, o mecanismo proposto apresenta certo nível de imprecisão nos dados recuperados pelo modelo, o que pode prejudicar financeiramente o consumidor ou a concessionária de energia elétrica. Mesmo assim com a presença do limiar de erro é possível controlar o nível de imprecisão de modo que o impacto financeiro seja mínimo. Além disso, o custo associado à execução do mecanismo foi avaliado em um dispositivo com baixo poder computacional, bem como a viabilidade de integração do mecanismo proposto com outras funcionalidades presentes no cenário de gerenciamento pelo lado da demanda. Por fim, outro breve experimento analisou a aplicação de média móvel sob diferentes configurações para analisar a suavização de outliers que possam prejudicar o funcionamento do mecanismo.

  • JOSE CARLOS CORREIA LIMA DA SILVA FILHO
  • Método para Localização da Fonte de Afundamento de Tensão por Algoritmo de Clusterização e Rotulação por Regra de Decisão
  • Advisor : IVAN SARAIVA SILVA
  • Data: Apr 9, 2019
  • View Dissertation/Thesis   Show resume
  • O distúrbio de afundamento de tensão corresponde a uma redução entre 0,9 e 0,1 p.u. do valor eficaz da tensão nominal por um curto período de tempo e são causados principalmente por curto-circuito no sistema de energia. Tais distúrbios, destacam-se como sendo a alteração da forma de onda que mais se manifesta nas redes elétricas, sendo que sua ocorrência ocasiona danos aos consumidores. Desta forma, apontar o local no sistema de distribuição de energia que está conectada a fonte causadora do distúrbio de afundamento de tensão é o primeiro passo para corrigir o problema. No entanto, esta tarefa não é trivial, uma vez que os afundamentos de tensão ocorrem em um curto intervalo de tempo e se propagam ao longo de todo sistema. Este trabalho tem como objetivo principal apresentar uma metodologia baseada em algoritmo de clusterização combinada com regra de decisão para apontar a região (cluster) de origem do afundamento de tensão. O algoritmo de clusterização é responsável por analisar os dados do sinal de tensão advindos de diferentes pontos de medição e separar esses dados em grupos, onde um deles agrega os locais próximos da região de ocorrência do distúrbio. Para tanto, foram avaliados sobre diferentes contextos a performance de 5 (cinco) algoritmos de clusterização, são eles: K-Means Clustering, Gaussian  Mixture Models (GMM) , Density Based Spatial Clustering of Applications with Noise (DBSCAN), Fuzzy C-means (FCM) e Agglomerative Hierarchical Clustering. Em seguida o algoritmo Partial Decision Trees (PART) é responsável por definir o conjunto de regra de decisão que irão confrontar as características de cada clusters e rotular qual grupo (cluster) agrega o local de origem do distúrbio. A metodologia proposta foi validada por meio de simulações de curto-circuito trifásico no Sistema IEEE 34 barras. Os resultados mostram que a abordagem proposta neste trabalho é promissora para ser empregada em smart grids, uma vez que apresentou resultados satisfatórios, apresentando em alguns cenários uma taxa de acerto maior que 90%. Portanto, a metodologia pode apoiar a decisão do corpo técnico para que ações corretivas venham a ser estabelecidas de forma assertiva.

     

  • SIDINEY DE SOUSA ARAUJO
  • Modelo de Classificação Fuzzy Baseado em Processo de Rotulação Automática de Grupos
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Apr 9, 2019
  • Show resume
  • As técnicas de agrupamento e classificação de dados são frequentemente utilizadas com a finalidade de extrair padrões e classificar novos elementos. A combinação de tais técnicas pode ser aplicada em bases de dados em que não se conhece o atributo classe, utilizando a interpretação dos grupos obtidos no processo de agrupamento dos dados para identificação de um padrão que auxilie o processo de classificação. Esta interpretação, apesar de depender do problema abordado, requerendo por vezes o auxílio de um especialista, pode ser desempenhada por modelos de rotulação automáticos: modelos capazes de identificar características relevantes dos grupos e utilizá-las na formação de rótulos. Além da interpretação dos grupos a adição de outra técnica para classificação de novos elementos pode incrementar ainda mais o tempo de simulaçao. Baseado em modelos de rotulação automáticos e lógica Fuzzy, este trabalho propõe um modelo de classificação no qual os rótulos dos grupos são utilizados para formação de regras e funções de pertinência de um sistema Fuzzy. O modelo proposto foi avaliado comparando a acurácia, desvio padrão, índice Kappa e tempo de treinamento com de outros algoritmos de classificação, bem como analisado a quantidade de regras geradas pelos algoritmos. Para diferentes bases disponíveis no repositório UCI, os resultados para o índice Kappa foram acima de 0,8 considerados excelentes, com acurácia e tempo de treinamento similares aos de algoritmos encontrados na literatura.

  • LEONARDO PEREIRA DE SOUSA
  • Método de Identificação de Cédulas Monetárias para Deficientes Visuais
  • Advisor : RODRIGO DE MELO SOUZA VERAS
  • Data: Mar 29, 2019
  • View Dissertation/Thesis   Show resume
  • Estima-se que atualmente existam no mundo cerca de 285 milhões de deficientes visuais,

    sendo 39 milhões cegos e 246 milhões com baixa visão. O uso de Tecnologias de Informação

    e Comunicação contribui para a independência, qualidade de vida e inclusão na vida

    social dos deficientes visuais, por meio do suplemento, manutenção ou devolução de suas

    capacidades funcionais. Cédulas monetárias ainda são o meio mais comum de pagamento

    e a maneira mais usada para a realização de transações pessoais, sendo manipuláveis por

    qualquer pessoa, inclusive deficientes visuais. A identificação de cédulas é uma das grandes

    dificuldades enfrentadas por portadores de deficiência visual, e com esse problema em

    mente alguns países utilizam uma marca tátil como orientação do valor correspondente a

    cada cédula. Porém, tal marca é considerada insuficiente por muitos deficientes visuais,

    devido ao desgaste na intensa movimentação da cédula. Nesse contexto, o presente trabalho

    apresenta um método de identificação de cédulas monetárias com a utilização de descritores

    locais. Nos testes foram utilizadas as cédulas de dólar, euro e notas brasileira de real.

    Para isso, foram construídas bases de imagens, composta por 1.008 imagens de cada

    valor de cédula, totalizando 6.048 imagens para cédulas de real e 7.056 imagens para

    as cédulas de dólar e euro. Foram avaliados quatro detectores de pontos de interesse

    (BRISK, FAST, MSER e SURF), dois descritores de características (BRISK e SURF),

    quatro métodos de assinatura da imagem (média, moda, mediana e BoVW), quatro

    classificadores (Radial Basis Function Networks, Random Tree, Multilayer Perceptron e

    Sequencial Minimal Optimization) e dois comitês de classificadores (Random Forest e um

    comitê formado pelos melhores classificadores testados: Radial Basis Function Networks,

    Multilayer Perceptron e Sequencial Minimal Optimization), que poderão ser utilizados

    como base para o desenvolvimento de aplicativos para a identificação de cédulas monetárias.

    Nos testes realizados, se obteve um índice Kappa excelente e valores de acurácia de 99,77%,

    99,12% e 96,95% em cédulas de dólar, euro e real, respectivamente.

  • JARDESON LEANDRO NASCIMENTO BARBOSA
  • Um Estudo Sobre as Características que Compõem a Percepção de Utilidade de Comentários Web Sobre Produtos
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Mar 21, 2019
  • Show resume
  • Com o crescimento da Internet, tornou-se comum que as pessoas publiquem suas opiniões online. Compartilhamos diariamente nossas opiniões a respeito de tudo. A partir dessas opiniões, surgiram os reviews de produtos online onde usuários podem publicar na Internet textos sobre suas experiências com produtos ou serviços. Reviews de usuários online ajudam futuros consumidores a tomarem uma decisão sobre a compra e podem também beneficiar os fornecedores do produto ou serviço. Entretanto, como milhares de reviews são publicados diariamente, seria interessante apresentar ao usuário uma lista ordenada com os reviews mais importantes. A propagação de reviews inúteis ou com informações falsas é outro problema para usuários e fornecedores. Para tornar a tarefa de ler reviews online mais agradável, foi desenvolvido um mecanismo em que os próprios usuários votam em reviews como úteis ou não úteis no processo de tomada de decisão de compra. Esse sistema está presente atualmente na maioria dos websites e á amplamente utilizado, porém não está isento de certos problemas. Algumas tendências a respeito do voto de utilidade de reviews online podem prejudicar a visualização de informações relevantes sobre o produto. Para resolver esse problema é necessário entender o que torna um review útil e, a partir desse conhecimento, desenvolver um sistema que identifique as características de utilidade de reviews de forma automática. Este trabalho descreve um estudo sobre os fatores que contribuem com a percepção de utilidade de reviews online, que inclui um modelo de regressão utilizando aprendizado de máquina supervisionado.  Diversos experimentos foram realizados para definir melhor topologia das Redes Neurais (MLP e RBF), bem como para determinar as melhores features. Os experimentos utilizaram dois Corpora nos domínios de e-jogos e smartphones. Os resultados indicam que a reputação e a expertise do autor, as opiniões e o tamanho do texto são as características mais importantes para a percepção de utilidade de reviews.

  • TARCÍSIO FRANCO JAIME
  • Uso de Algoritmos de Aprendizado de Máquina Supervisionado para Rotulação de Dados
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Feb 28, 2019
  • View Dissertation/Thesis   Show resume
  • Com o avanço da tecnologia, cada vez mais equipamentos estão se conectando nas redes, gerando fluxos e processamento de dados. Com isso, mais algoritmos de aprendizado de máquina estão sendo estudados para extraírem informações relevantes desses grandes volumes. Com o grande aumento desse fluxo de dados, a interpretação destes pode ser prejudicada, sendo o grau de dificuldade proporcional a esse crescimento. É nesse contexto que essa pesquisa atua, pois alguns algoritmos de aprendizado de máquina criam grupos de dados que possuem algumas características. Neste trabalho realizou-se uma pesquisa científica com o objetivo de identificar nesses grupos quais são os atributos mais significativos junto aos valores que mais se repetem a ponto de representar o grupo, denominando-se essa técnica de rotulação. Dessa forma, esta pesquisa utiliza a técnica algoritmos supervisionados, já implementados por um software de cálculo numérico (MATLAB), em que se pretende rotular grupos já criados em diferentes bases de dados, exibindo um resultado em porcentagem de acordo com o número de registros que são representados pelo rótulo criado. 

     

  • JOSELITO MENDES DE SOUSA JUNIOR
  • Modelo para Classificação de Fornecedores da Administração Pública Baseado em Aprendizagem de Máquina Supervisionada
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Feb 27, 2019
  • View Dissertation/Thesis   Show resume
  • Contratos públicos podem ser entendidos como ajustes realizados entre a Administração Pública e particulares, para a consecução de objetivos de interesse público, com regras e condições estabelecidas pela própria Administração. Em outras palavras, contratos públicos são realizados através de um modelo de compras públicas. No Brasil, respondem por mais de 19% do Produto Interno Bruto (PIB). O modelo de compras públicas passou, nas últimas décadas, por um processo de automação, com a criação do Portal de Compras Governamentais e a implantação de pregões eletrônicos. O crescimento do PIB nesse período foi acompanhado por uma elevação nos gastos públicos que reflete o aumento do número de contratos firmados e licitações ou compras diretas realizadas. Considerando o desafio das instituições de controle governamental brasileiras de garantir eficiência e regularidade desses processos, propõe-se neste trabalho um modelo computacional que utilize aprendizagem de máquina para a classificação de fornecedores públicos. De acordo com os relatórios de auditoria, os fornecedores podem ser classificados em alto risco, que são aqueles citados em algum relatório por envolvimento em algum tipo de fraude ou quebra contratual, ou baixo risco, que são aqueles fornecedores ausentes dos relatórios por não apresentarem envolvimento com fraude ou quebra contratual. Para o modelo proposto, baseado no problema de classificação binária, deverá aprender as características dos fornecedores considerados de baixo risco (bons) e dos fornecedores considerados de alto risco (ruins) e, com isso, classificar os novos fornecedores inseridos na base de dados dos fornecedores do TCE-PI. A base de dados utilizada foi fornecida pelo Tribunal de Contas do Estado do Piauí é composta pela união de dados presentes em outras bases, como na Receita Federal, no Tribunal Superior Eleitoral e no Portal da Transparência. Ela consta de 29.755 instâncias, sendo 6.073 delas consideradas como fornecedores de alto risco e 23.682 consideradas como fornecedores de baixo risco. Os atributos relacionados à base são dos tipos binário, real e string. A abordagem utilizada nesse trabalho baseia-se em selecionar e preparar os dados presentes na base de dados dos fornecedores para, em seguida, realizar-se uma etapa de testes e uma etapa de desenvolvimento. Na etapa de testes são realizados vários experimentos com a ferramenta WEKA para fazer uma análise do melhor algoritmo a ser utilizado no problema de classificação. Nessa etapa, definiu-se como a melhor solução utilizar o algoritmo J48, que apresenta taxa de classificação superior a 82%, podendo, em alguns casos, chegar a 94%. Na etapa de desenvolvimento, foi efetivada a implementação do algoritmo J48 e do Sistema de Avaliação de Fornecedores (SAF) como produto final da pesquisa aplicada ao problema de classificação dos fornecedores.

2018
Description
  • ARINALDO LOPES DA SILVA
  • Um Algoritmo Aprimorado de Controle Inteligente de Semáforo com Pelotões Veiculares Mais Acurados
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Sep 20, 2018
  • View Dissertation/Thesis   Show resume
  • Os congestionamentos de trânsito nos grandes centros urbanos vêm aumentando a cada ano e prejudicando a mobilidade das pessoas. Além disso, causam stress aos motoristas, consumo excessivo de combustível e intensificam a degradação do meio ambiente por meio da emissão do dióxido de carbono (CO2). As interseções entre as vias são pontos que podem contribuir significativamente para o aumento dos congestionamentos de trânsito. O uso de semáforos nesses pontos pode ajudar a controlar o trânsito e reduzir os congestionamentos. A configuração de temporização desses semáforos também é um fator importante a ser considerado. Em geral, a maioria dos semáforos nas interseções opera de acordo com configurações de tempo fixo. Entretanto, os fluxos de veículos, em cada uma das vias de uma interseção, nem sempre possuem as mesmas características no decorrer do tempo. Para controlar o fluxo de veículos nas interseções de forma mais eficiente, é preciso que os semáforos operem de forma dinâmica, considerando informações de tráfego em cada uma das vias que ele controla. Uma das tecnologias utilizadas para obtenção dessas informações de tráfego pelos semáforos são as redes veiculares. As redes veiculares (VANETs - Vehicular Ad hoc Networks) são um tipo particular de rede móvel ad hoc onde cada veículo é dotado de uma OBU (On Board Unit), que periodicamente envia informações na rede. Além disso, um semáforo pode operar como uma RSU (Road Side Unit) que permite a recepção das informações enviadas pelas OBUs. Utilizando redes veiculares, este trabalho apresenta um algoritmo de controle inteligente de semáforo reformulado a partir de um aperfeiçoamento da melhor solução encontrada na literatura até então, o ITLC (Intelligent Traffic Light Controlling). O ITLC escalona pelotões de veículos, delimitados por uma área virtual no entorno de um semáforo, para cruzar a interseção conforme suas características de tráfego. As melhorias deste trabalho incidem na forma como os pelotões de veículos são formados e atualizados em relação ao ITLC original. A partir de experimentos realizados em ambiente simulado, verificou-se que o tempo médio de espera dos veículos no semáforo, utilizando o algoritmo aprimorado, foi 12% menor que o ITLC nos cenários com maior demanda de tráfego e aproximadamente 30% menor nos cenários com menor demanda de tráfego. Também foram observadas reduções na emissão média de CO2 pelos veículos, bem como na média de pacotes transmitidos pelos mesmos em relação ao ITLC. A vazão de veículos no semáforo também foi aumentada em pelo menos 4% em todos os cenários com o algoritmo aprimorado. 

     

     

  • JOÃO PAULO ALBUQUERQUE VIEIRA
  • Análise de Métodos de Extração de Aspectos em Opiniões Regulares
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Sep 5, 2018
  • View Dissertation/Thesis   Show resume
  • No contexto do constante crescimento da Web, diversos serviços foram virtualizados, incluindo o surgimento do comércio eletrônico (e-commerce). Tanto tradicionalmente quanto por meio de e-commerce, as pessoas necessitam comparar produtos e serviços para nortear suas decisões por meio da análise das características desejadas. A mudança que a Web ocasionou foi a exposição de suas opiniões em sites de compra e venda, fóruns na Web, redes sociais ou ainda grupos de discussão, permitindo sua visualização por qualquer pessoa que necessite. Porém, com o crescimento explosivo da Web e da quantidade de dados gerada diariamente, uma análise manual dessas informações tornou-se impossível, tendo promovido o surgimento da área de Mineração de Opiniões. Um sistema de Mineração de Opiniões consiste em identificar, classificar e sumarizar as opiniões em descrições textuais de consumidores sobre produtos ou serviços. Na literatura, existem diversas abordagens utilizadas na identificação de opiniões para extrair a entidade alvo e seus aspectos, a saber: i) extração baseada em frequência; ii) extração baseada nas relações sintáticas; iii) extração usando aprendizado supervisionado; e iv) extração usando modelos de tópicos. Este trabalho apresenta uma análise comparativa entre as principais abordagens usadas na tarefa de Extração de Aspectos em relatos sobre produtos e serviços em sites Web. Nessa Dissertação foram implementadas adaptações de quatro métodos de extração de aspectos e avaliados em dois Corpora distintos, sendo um em português e outro em inglês. Nos experimentos realizados observou-se que o método usando aprendizado supervisionado (redes neurais convolucionais) obteve melhores resultados sobre os demais.

  • RAFAEL FONTINELE RIBEIRO
  • Descoberta de Problemas de Usabilidade em Aplicações Web a partir da Detecção Automática de Usability Smells
  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Aug 29, 2018
  • View Dissertation/Thesis   Show resume
  • As aplicações Web têm passado por um grande e rápido crescimento nos últimos anos, tornando-se parte do nosso dia a dia. As grandes empresas utilizam essas aplicações para fornecer seus serviços, assim, para que os usuários se sintam estimulados a utilizá-las, é preciso garantir o desenvolvimento de aplicações de qualidade. Um dos atributos essenciais de uma aplicação Web, que determina diretamente seu sucesso ou fracasso, é a usabilidade. Esse atributo mede o quão adequada ao uso é a aplicação, tendo sido desenvolvidos diversos métodos para avaliá-lo. As avaliações de usabilidade têm como objetivo evidenciar os problemas de usabilidade da aplicação, facilitando a correção dos mesmos e, consequentemente, melhorando a usabilidade. O método de avaliação de usabilidade mais popular é o teste laboratorial, por conseguir avaliar diretamente os sentimentos dos usuários ao interagir com a aplicação final. Entretanto, a realização desse teste acarreta um alto custo e complexidade, devido necessidade de organização do ambiente laboratorial, convocação de participantes, avaliação de resultados subjetivos, etc. Assim, com o objetivo de simplificar a realização dessa avaliação e facilitar a descoberta de problemas de usabilidade, este trabalho propõe uma abordagem para a detecção automática de indicativos de problemas, também conhecidos como usability smells. Essa abordagem é baseada na captura da interação do usuário em contexto de produção, ou seja, com o mesmo realizando suas atividades diárias livremente, e na análise automática dessa interação. De acordo com os padrões de ações analisados, a abordagem propõe a aplicação de algoritmos específicos para a detecção de usability smells, que os identificam e reportam informações importantes a respeito das detecções, visando facilitar a localização da origem do problema. Cada um dos smells propostos foi catalogado em termos de fundamentação, forma de detecção e refactoring sugerido. Uma avaliação realizada com a abordagem, demonstrou que os smells indicados por ela foram capazes de auxiliar na detecção e correção de problemas de usabilidade concretos em uma aplicação real. Apesar de não ser capaz de substituir completamente o teste laboratorial tradicional, realizado por avaliadores experientes, a abordagem proposta pode complementá-lo, auxiliando a detecção de problemas que são mais evidentes ao se analisar grandes conjuntos de dados, ou mesmo servir como uma alternativa em casos onde o custo financeiro e a demanda de tempo são restrições mais severas.

  • HUGO SANTOS PIAUILINO NETO
  • Descritores Locais e Bag of Features na Classificação de Placas de Trânsito
  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Aug 29, 2018
  • View Dissertation/Thesis   Show resume
  • A área de Intelligent Transportation Systems surgiu como um esforço para tornar o transporte mais seguro, confiável e eficaz ao empregar diversas metodologias computacionais em ambientes de transporte. Uma das ramificações mais notáveis nessa área é o desenvolvimento de Driver Support Systems (DSS’s) com o objetivo de promover segurança e aprimorar as habilidades do condutor humano. DSS’s podem atuar como copilotos, monitorando continuamente o ambiente, fornecendo ao condutor informações atualizadas das variáveis monitoradas e destacando possíveis ameaças à segurança. Além disso, podem executar, parcialmente ou totalmente, algumas tarefas anteriormente praticadas apenas por seres humanos. Uma das principais ações executadas por condutores, durante o pro- cesso de deslocamento, é o reconhecimento da sinalização de trânsito presente na via. Por diversas vezes, condutores não respeitam a sinalização por desatenção ou por estarem em situações de tráfego intenso. Em momentos semelhantes, DSS’s que reconheçam placas de trânsito podem fornecer informações cruciais que poderiam ser ignoradas pelo condutor humano. Este trabalho propõe um modelo de classificação de placas de trânsito com a utilização de descritores locais e Bag of Features. Para a composição do modelo proposto foram utilizados os detectores de pontos de interesse SIFT e FAST, os descritores de características SIFT e BRIEF, os algoritmos de agrupamento K-Means e Mini Batch K-Means e os classificadors SVM multiclasse com abordagem One-vs-One e One-vs-All. O modelo proposto foi treinado em bases de imagens de placas de trânsito da Alemanha, Bélgica e Brasil, onde apenas placas que não possuem informações essencialmente por texto foram consideradas. Para a realização dos testes, o modelo treinado foi executado e as métricas de avaliação de desempenho resultantes foram analisadas. Os melhores resultados obtidos foram nas combinações compostas por algoritmos de tempo real, retornando uma acurácia máxima de 84,27% na base de placas de trânsito da Alemanha, 96,67% na base de placas de trânsito da Bélgica e 94,43% na base de placas de trânsito do Brasil. Os índices Kappa obtidos pelos melhores resultados de cada base de imagens foram considerados “Excelentes”.

  • FRANCISCO VANDERSON DE MOURA ALVES
  • Uma Análise da Familiaridade de Código entre as Perspectivas de Módulo e Funcionalidade
  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Aug 28, 2018
  • View Dissertation/Thesis   Show resume
  • Durante as atividades de manutenção de software, especialmente evolutivas, corretivas e perfectivas, gerentes ou líderes de projetos geralmente realizam a distribuição de tarefas com base na relação que cada desenvolvedor possui com o código fonte associado, ou seja, quanto maior a relação entre um determinado desenvolvedor e o código fonte associado, maior será a probabilidade desse desenvolvedor assumir o desenvolvimento. Contudo, é comum que gerentes de projetos não tenham uma noção real de como está a relação entre desenvolvedores e o código fonte relacionado à cada tarefa a ser desenvolvida. Em um estudo (dissertação de mestrado) anterior, foi proposto um método baseado em Mining Software Repositories (MSR) para obter a familiaridade de código dos desenvolvedores, a partir da mineração de dados de repositórios de software. O cálculo da familiaridade é feito considerando a perspectiva de módulo (pacote) ou arquivo. Neste trabalho, é proposta uma abordagem baseada no método citado anteriormente, para inferência da familiaridade de desenvolvedores, considerando também uma nova perspectiva: funcionalidade de software. Algumas das principais etapas da abordagem proposta visam identificar funcionalidades de software e unidades computacionais (arquivos de código) que compõem cada funcionalidade identificada, com base na utilização de técnicas de Reverse Engineering (RE). Um dos objetivos principais deste trabalho é a realização de uma análise da familiaridade de código considerando as perspectivas de módulo e funcionalidade. Neste estudo foi realizado também, um Mapeamento Sistemático da Literatura (MSL) que apresenta um overview da área de inferência da familiaridade e outros tipos de relação entre desenvolvedor e código fonte por meio de técnicas baseadas em MSR. Por fim, foi realizada neste trabalho, uma avaliação em duas etapas. Na primeira fase a abordagem proposta foi avaliada no processo de identificação de funcionalidades e arquivos relacionados. Por meio da análise de sistemas reais, pôde-se constatar que a abordagem obteve um desempenho satisfatório durante esse processo. Durante a segunda etapa de avaliação da abordagem foi realizada a inferência e análise da familiaridade de código entre desenvolvedores considerando a perspectiva de módulo e funcionalidade. Os resultados mostram que uma visão por funcionalidade fornece informações importantes a respeito da familiaridade de código. 

     

     

  • EUGÊNIO SOUZA CARVALHO
  • COGNITE - Um framework para construção de geradores de código para arquiteturas multi-core
  • Advisor : IVAN SARAIVA SILVA
  • Data: Aug 27, 2018
  • Show resume
  • O processo de desenvolvimento de hardware e software antes sequêncial foi substituído por um modelo de desenvolvimento concorrente. Isso decorre do contínuo crescimento da complexidade dos sistemas e do encurtamento da janela de time-to-market. Projetos de hardware quase sempre resultam em novos paradigmas, bem como na inserção de instruções não suportados em compiladores convencionais. O objetivo desta dissertação é apresentar o framework COGNITE, detalhando o conjunto recursos da API e o padrão a ser adotado para a implementação de um compilador utilizando o framework. O foco principal deste trabalho é disponibilizar uma infraestrutura que acelere o desenvolvimento de geradores de código para validação de projetos de hardware. Foram expostos casos de uso reais e os métodos empregados para validar e avaliar tanto o framework quanto o código gerado. Os resultados mostram que o código gerado apresenta desempenho semelhante ou superior em alguns dos critérios analisados quando comparado com o compilador Gnu GCC Cross-Compile, embora a maior aquisição tenha sido a facilidade e flexibilidade no que se refere a construção de geradores para novas arquiteturas alvo e ferramentas de análise para os códigos gerados.

  • RONYÉRISON DANTAS BRAGA
  • Um Estudo Pratico sobre a Automação em Oráculos de Testes
  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Aug 24, 2018
  • View Dissertation/Thesis   Show resume
  • A computação tem sido utilizada para apoio à solução de problemas nas mais diversas áreas de conhecimento, tais como, medicina, biologia, matemática, mecânica, administração, economia, etc. Inúmeras aplicações têm sido desenvolvidas para auxiliar o ser humano na realização de tarefas que antes eram realizadas de forma manual, tais como, aplicações para identificação de anomalias em imagens médicas (medicina), aplicações para previsão de valores de ações no mercado financeiro (economia), aplicações para gestão patrimonial

    (administração), dentre outras. Entretanto, para garantir a confiabilidade das aplicações para solução de tais problemas é preciso que elas passem por uma etapa essencial no processo de desenvolvimento de software, o Teste de Software.

     

    O Teste de Software é uma das atividades que se concentra na gestão da qualidade de software, e pode ser definido como um conjunto de tarefas, planejadas e executadas sistematicamente com o propósito de descobrir erros cometidos durante a implementação dos softwares. Uma das tarefas mais complexas e custosas relacionada ao Teste de Software é o mecanismo popularmente conhecido como Oráculo de Testes. Dada uma determinada entrada para uma aplicação, a difícil tarefa de distinguir o comportamento correto para o comportamento potencialmente incorreto da aplicação é chamado de “Problema do Oráculo de Teste”. Geralmente, essa atividade é realizada de forma manual por um desenvolvedor ou testador da aplicação, tornando-se um garlalo na realização de testes de software.

     

    Considerando esse contexto, é proposta neste trabalho uma abordagem, para automação do mecanismo de oráculo de testes. Essa proposta traz consigo a inovação na forma como a atividade é realizada e torna-se uma alternativa para as pesquisas já existentes dessa área. Foi realizado um Mapeamento Sistemático de Estudos (MSE) com o objetivo de identificar na literatura os principais trabalhos dessa linha de pesquisa. A realização desse MSE foi a base para a definição da abordagem proposta no trabalho, pois ajudou a posicionar a pesquisa identificando os principais interesses da área e como o problema tem sido atacado em novos trabalhos. Após a realização de um estudo da área, foi proposta uma nova abordagem para automação do oráculo de testes. Três experimentos foram executados com aplicações Web para avaliar a abordagem proposta. Os dois primeiros experimentos foram realizados com uma aplicação fictícia, de forma que: no primeiro experimento, as falhas foram inseridas de forma aleatória e no segundo as falhas foram inseridas no código da aplicação por um desenvolvedor. O terceiro experimento foi realizado com uma aplicação real de grande porte com o objetivo de assegurar os resultados obtidos nos dois primeiros experimentos. Os resultados obtidos em todos os experimentos apresentaram indicações da aplicação da abordagem proposta na solução do problema.

  • FRANCISCO CARLOS SILVA JUNIOR
  • DREAMS – Um Array Reconfigurável Dinâmico para Sistemas Multiprocessadores
  • Advisor : IVAN SARAIVA SILVA
  • Data: Aug 14, 2018
  • View Dissertation/Thesis   Show resume
  • Observa-se nos dias atuais que os sistemas embarcados estão cada vez mais heterogêneos. Diferentes funcionalidades são integradas em um mesmo dispositivo. Juntamente com essa heterogeneidade, as aplicações executadas nesses dispositivos estão cada vez mais complexas. Processadores convencionais (Processadores de Propósito Geral ou Processadores de Aplicação específica) são capazes de fornecer desempenho ou flexibilidade, mas não ambos. Nesse cenário, há uma busca por soluções arquiteturais que possam fornecer desempenho e maior flexibilidade aos dispositivos processantes. Arquiteturas reconfiguráveis já se mostraram como uma solução arquitetural com maior flexibilidade que os processadores convencionais e capazes de aumentar desempenho em ambientes single core. Contudo, nos dias atuais, as arquiteturas multicore são dominantes no mercado de processadores. Com isso, é necessário rever o modo como as arquiteturas reconfiguráveis são concebidas e utilizadas. Tradicionalmente, em ambientes single core, uma arquitetura reconfigurável (geralmente formada por um array de unidades funcionais) é acoplada ao processador, gerando-se considerável custo adicional em área. Portanto, migrar as arquiteturas reconfiguráveis tradicionais para um ambiente multicore geraria grande overhead de área. Dentro deste contexto, este trabalho propõe uma arquitetura adaptável para processadores multicore. Arquitetura adaptável é um modelo arquitetural derivado de arquiteturas reconfiguráveis. A diferença entre esses dois modelos está no modo como a reconfiguração é realizada. Enquanto que na arquitetura reconfigurável o hardware é modificado, na arquitetura adaptável o hardware é programado utilizando-se unidades funcionais disponíveis na arquitetura. A arquitetura proposta possui apenas 1 coluna com 6 unidades funcionais por núcleo. Deste modo, diminui-se consideravelmente o custo adicional em área devido ao uso da arquitetura adaptável no sistema multicore. A arquitetura proposta oferece recursos computacionais para acelerar múltiplas threads (ou processos) executando simultaneamente em diferentes núcleos de um processador multicore. Essa arquitetura inclui um tradutor binário que converte, em tempo de execução, sequências de instruções executadas em um núcleo do processador, para serem executadas na arquitetura adaptável. O tradutor binário provê compatibilidade de software e faz o mecanismo de reconfiguração da arquitetura ser totalmente transparente. Além do tradutor binário, também será possível gerar configuração via compilador. A arquitetura proposta foi implementada utilizando SystemC e possui componentes descritos em RTL (Register Transfer Level) e TLM (Transaction Level Modelling). Sua validação foi realizada através de um subconjunto do benchmark ParmiBench, uma aplicação de multiplicação de matriz e de um filtro laplaciano. Para análise de desempenho, foi feita uma comparação da execução da arquitetura proposta com a execução em um processador MIPS com 4 núcleos. Os resultados obtidos mostram o potencial de aceleração que a arquitetura pode alcançar em ambientes multicore. Além disso, mostra a possibilidade da arquitetura explorar tanto ILP(Instruction Level Parallelism) quando o TLP (Thread Level Paralelism) por intermédio do compartilhamento dos elementos de processamento entre os nucleos

  • ISMAEL DE HOLANDA LEAL
  • Diagnóstico de câncer de mama utilizando abordagem de Aprendizado Profundo e Descritores de Textura
  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Jul 9, 2018
  • View Dissertation/Thesis   Show resume
  • O câncer de mama é apontado como a principal causa de morte entre as mulheres. Sua ocorrência aumenta consideravelmente todos os anos. O diagnóstico dessa doença de forma precoce está diretamente relacionado às chances de cura. Uma das formas de auxílio ao profissional de saúde na identificação e diagnóstico é o uso de Sistemas de Detecção e Diag- nósticos Auxiliados por Computador (Computer Aided Detection/Diagnosis). Este trabalho propõe uma metodologia para discriminação de padrões de malignidade e benignidade em imagens mamográficas, através das características extraídas pelos Índices de Diversidade Filogenética. A região de interesse foi extraída através de uma Rede Neural Convolucional, com base na arquitetura da rede U-Net. Para a classificação, visando diferenciar as imagens malignas e benignas, utilizou-se os classificadores Random Forest, J48, LMT e a Máquina de Vetor de Suporte (MVS). A metodologia apresentou bons resultados na classificação tendo o classificador Random Forest o melhor desempenho entre todos. O resultado foi comparado com alguns trabalhos relacionados e com os resultados do especialista.

  • MARTONY DEMES DA SILVA
  • Ambiente Digital para Ensino e Acompanhamento Personalizado de Estudantes com Autismo
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Jul 5, 2018
  • View Dissertation/Thesis   Show resume
  • De acordo com a literatura, o uso de softwares de computadores fundamentado na Análise do Comportamento Aplicado (ABA) favorece o ensino de habilidades importantes para desenvolvimento de crianças com TEA. Diante disso, o software mTEA é proposto no âmbito desta dissertação de mestrado. O mTEA é uma ferramenta que auxilia o profissional educador na elaboração de atividades de ensino personalizadas, de acordo com as necessidades de cada estudante com TEA. O mTEA viabiliza a elaboração, aplicação e análise dos resultados das atividades de ensino. No início deste trabalho de mestrado, foi realizado um mapeamento sistemático da literatura que apontou a deficiência de ferramentas com tais características. O mTEA foi avaliado no processo de ensino de crianças com TEA. Essa avaliação foi realizada com 5 crianças e 2 profissionais de equipe multidisciplinar. De acordo com os profissionais que participaram do experimento, o mTEA facilitou aplicação das atividades. Além disso, possibilitou elaborar atividades de acordo com desempenho da criança e os relatórios otimizam a análise dos dados de cada criança com TEA.

     

     

     

     

  • FRANCISCO DAS CHAGAS IMPERES FILHO
  • Rotulação de Grupos em Algoritmos de Agrupamento Baseados em Distância Utilizando Grau de Pertinência
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Apr 13, 2018
  • View Dissertation/Thesis   Show resume
  • No campo da Inteligência Artificial (IA) um tópico vem ganhando destaque nos últimos anos: o agrupamento de dados. Por esse motivo, vem sendo considerado um item relevante na subárea de Aprendizagem de Máquina (AM), mas especificamente aprendizagem não supervisionada. O problema relacionado ao agrupamento (clustering) é abordado com frequência em muitos trabalhos de cunho científico, entretanto a compreensão dos grupos (clusters) é tão importante quanto a sua formação. Definir grupos pode auxiliar na interpretação e, consequentemente, direcionar esforços para tomadas de decisões mais acertadas levando em consideração as peculiaridades de cada grupo formado. Devido a problemática relacionada a encontrar definições, ou rótulos, capazes de identificar cada grupo de forma fácil, este trabalho descreve um modelo que elabora rótulos utilizando um algoritmo não supervisionado baseado em distância para encontrar características relevantes nos elementos de cada grupo e modelar faixas de valores que identificam os grupos de forma única. Para avaliar o desempenho, o modelo produziu rótulos para grupos de uma base de dados bem difundida na literatura e foi submetido a uma análise comparativa com outro modelo de rotulação, que aborda a mesma temática desse trabalho. Os rótulos produzidos conseguiram representar um grande número de elementos, apresentando assim um bom resultado. Na análise comparativa, o modelo conseguiu produzir rótulos de forma eficiente, permitindo uma fácil interpretação das definições geradas. Os experimentos realizados demonstram que o modelo proposto é capaz de construir rótulos para a identificação dos grupos, melhorando assim a compreensão dos grupos fornecidos.

     

     

  • VITOR AUGUSTO CORREA CORTEZ ALMEIDA
  • Uma biblioteca para manipulação de dados contextuais em jogos pervasivos móveis.
  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Apr 12, 2018
  • View Dissertation/Thesis   Show resume
  • Um jogo pervasivo móvel pode ser definido como uma aplicação sensível ao contexto direcionada para plataformas móveis como, por exemplo, smartphones. Consequentemente, o desenvolvimento de jogos desse gênero apresenta desafios técnicos relacionados aos domínios das aplicações móveis e da computação sensível ao contexto. A possível existência de erros, imprecisões e incertezas nos dados contextuais usados pelas aplicações sensíveis ao contexto é uma limitação inerente dos sensores empregados para realizar medições. Por esse motivo, o desenvolvedor de aplicações sensíveis ao contexto precisa lidar com a incerteza apresentada pelos valores sensoreados para assegurar a estabilidade do comportamento da aplicação. Este trabalho apresenta como proposta uma biblioteca voltada para a manipulação dos dados contextuais no desenvolvimento de jogos pervasivos móveis. A biblioteca é baseada em um modelo conceitual orientado a objetos que define um conjunto de entidades para representar as informações contextuais ao longo dos processos de aquisição e interpretação do contexto determinados pelo modelo. Especificamente, essa biblioteca deve ser capaz de encapsular e abstrair detalhes do processamento de dados contextuais, dividir em módulos as tarefas de aquisição, tratamento e utilização do contexto, e oportunizar a reutilização de código referente à manipulação e a representação dos dados contextuais. As contribuições desta pesquisa são: a formulação de um modelo conceitual para representar dados contextuais; a especificação e implementação de uma biblioteca baseada no modelo proposto para auxiliar o desenvolvimento de jogos pervasivos móveis; e a execução de um estudo experimental, de acordo com recomendações da Engenharia de Software Experimental, para avaliar como a biblioteca proposta pode beneficiar desenvolvedores de jogos pervasivos móveis. Os resultados do experimento indicam que soluções desenvolvidas com o apoio da biblioteca são menos extensas e mais simples, porém, não foram encontradas diferenças significantes no tempo de desenvolvimento e na percepção de qualidade. A biblioteca proposta por este trabalho foi intitulada Gamepad.

     

     

     

  • NAYARA HOLANDA DE MOURA
  • Combinação da regra ABCD e CNN’s Pré-treinadas no Diagnóstico Automático de Melanoma
  • Advisor : RODRIGO DE MELO SOUZA VERAS
  • Data: Apr 4, 2018
  • View Dissertation/Thesis   Show resume
  • Melanoma é um tipo maligno de lesão de pele, e atualmente está entre os tipos de câncer existentes mais perigosos. Entretanto, o diagnóstico precoce dessa doença proporciona ao paciente uma maior chance de cura. Neste cenário, métodos computacionais para processamento e análise de imagens de lesão de pele têm sido estudados e desenvolvidos para auxiliar os profissionais da área médica. Esses métodos pretendem possibilitar ao profissional uma facilidade e rapidez em relação ao diagnóstico da patologia através da interpretação de imagens médicas. Neste trabalho desenvolve-se um método computacional visando auxiliar os médicos dermatologistas no diagnóstico de lesões de pele em melanoma ou não-melanoma por meio de imagens dermatoscópicas. Com este método pretende-se classificar as lesões de pele utilizando um descritor híbrido. Esse descritor é obtido a partir da combinação da regra ABCD (Assimetria, Borda, Cor e Diâmetro) e Redes Neurais Convolucionais (CNNs): CaffeNet, Vgg-m, Vgg-verydeep-19, Vgg-f e Vgg-s. Além disso, é realizado nesse descritor híbrido uma seleção de atributos com o algoritmo Gain Ratio Information. As características extraídas das imagens são utilizadas como entradas para o classificador MLP (MultiLayer Perceptron). Foram utilizadas imagens de lesão de pele de 2 bases de imagens públicas: PH² e DermIS. O resultado obtido na classificação foi uma taxa de acerto igual a 94,9% e um índice Kappa de 0,8944.

  • ALINE MONTENEGRO LEAL SILVA
  • Descoberta de Conhecimento através de Métodos de Aprendizagem de Máquina Simbólicos aplicados ao Ensino a Distância da Universidade Federal do Piauí
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Mar 23, 2018
  • View Dissertation/Thesis   Show resume
  • Os cursos superiores na modalidade a distância tiveram um grande crescimento quantitativo na última década. Frente a esse crescimento, surge a preocupação com a qualidade do ensino e consequentemente com a performance acadêmica dos alunos. Com o intuito de identificar os perfis dos estudantes dessa modalidade educacional, especialmente dos cursos de Licenciatura em Computação, Sistemas de Informação e História, o presente trabalho exibe um processo de descoberta de conhecimento através de métodos de Aprendizagem de Máquina (AM) supervisionados aplicados ao ensino superior a distância, mais especificamente à base de dados do SIGAA/UFPI, cujos registros foram coletados nas duas últimas entradas do vestibular da Universidade Aberta do Brasil. Neste processo de descoberta de conhecimento, realizou-se a identificação de perfis a partir de uma correlação entre o Índice de Rendimento Acadêmico (IRA) e os aspectos sociais desses alunos. Foram utilizados três algoritmos de AM supervisionados com o paradigma simbólico: J48, RandomTree e SimpleCart. Observou-se que o J48 obteve a melhor performance dentre os algoritmos aplicados, exibindo regras de produção bastante concisas que melhor representam a correlação do IRA com os demais atributos. Os perfis descobertos tendem a auxiliar os gestores do sistema de educação a distância na tomada de decisões em relação a melhorias no processo de ensino-aprendizagem, já que através da mineração de dados teve-se uma ideia do desempenho do aluno, ao mostrar que a deficiência acadêmica possui correlações com aspectos sociais. A partir dessas informações é possível definir-se estratégias diferenciadas em relação a esses alunos, como por exemplo, um acompanhamento presencial por parte dos tutores nos polos de apoio do sistema de educação a distância ou a implantação de um curso de nivelamento.

  • MAÍLA DE LIMA CLARO
  • Metodologia para Identificação de Glaucoma em Imagens de Retina
  • Advisor : RODRIGO DE MELO SOUZA VERAS
  • Data: Mar 22, 2018
  • View Dissertation/Thesis   Show resume
  • Glaucoma é uma doença ocular que danifica o nervo óptico causando a perda da visão. Considerada a segunda principal causa de cegueira no mundo, ficando atrás apenas da catarata. Com o objetivo de auxiliar especialistas no diagnóstico desta doença, sistemas de auxílio por computador são utilizados para reduzir a possibilidade da prescrição de tratamentos inadequados. Assim, vem sendo desenvolvidos sistemas de diagnóstico automático de glaucoma. Contudo é possível realizar melhorias nestas técnicas, visto que, os sistemas atuais não lidam com uma grande diversidade de imagens. Existem duas regiões das imagens da retina que são de suma importância para a detecção do glaucoma, sendo elas, as regiões do disco óptico e da escavação. Este trabalho apresenta uma nova metodologia para criação de um sistema de diagnóstico do glaucoma aplicado nas imagens da retina. Será aplicado descritores de textura e Redes Neurais Convolucionais (CNNs) nas imagens da retina sem segmentação (imagem original) e em imagens segmentadas na região do disco óptico. As características obtidas são selecionadas de acordo com a sua razão de ganho de informação. O sistema proposto tem como objetivo ser capaz de classificar corretamente imagens com diferentes características advindas de diferentes bases de imagens. Os resultados mostraram que a junção dos descritores GLCM e CNNs e a utilização do classificador Random Forest são promissores na detecção dessa patologia, obtendo uma acurácia de 93,35% em 873 imagens de 4 bases de dados públicas.

     

     

     

     

     

     

  • FRANCISCO NETO CARVALHO DE ARAÚJO
  • Rotulação Automática de Clusters Baseados em Análise de Filogenias
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Mar 19, 2018
  • View Dissertation/Thesis   Show resume
  • O agrupamento (clustering) é uma das principais técnicas de reconhecimento de padrões. Esta técnica consiste em organizar os elementos de um determinado conjunto em grupos (clusters) levando em consideração alguma métrica que permita determinar a semelhança em eles. Esses conjuntos de dados (data sets) frequentemente descrevem os elementos que os compõem por meio de atributos que podem assumir valores de diversos tipos, exigindo métodos eficientes na tarefa de detectar correlações entre dados de tipos complexos (ou mistos). No entanto, o processo de clustering não fornece claras informações que permitam inferir as características de cada cluster formado, ou seja, o resultado do processo de clustering não permite que os clusters tenham seu significado facilmente compreendido. A rotulação de dados visa identificar essas características e permitir então que se tenha a plena compreensão dos clusters resultantes. Neste trabalho propõe-se a utilização em conjunto de métodos de Aprendizagem de Máquina não supervisionada e supervisionada para as tarefas de agrupamento e rotulação de dados, respectivamente. Para tanto foram utilizados algoritmos reconhecidamente eficientes. Os algoritmos DAMICORE (SANCHES; CARDOSO; DELBEM, 2011) e sua nova versão, o DAMICORE-2 foram utilizados para forma clusters que posteriormente foram submetidos ao método de rotulação automática de clusters MRA (LOPES; MACHADO; RABÊLO, 2016), obtendo resultados satisfatórios nas definições dos clusters formados, frequentemente superando taxas de acerto de 90% nos experimentos realizados.

     

     

  • LUÍS GUILHERME TEIXEIRA DOS SANTOS
  • Seeded Fuzzy C-means: um algoritmo de agrupamento semissupervisionado aplicado à segmentação de imagens médicas
  • Advisor : RODRIGO DE MELO SOUZA VERAS
  • Data: Mar 16, 2018
  • View Dissertation/Thesis   Show resume
  • A segmentação de imagens médicas tem um grande número de aplicações no diagnóstico de doenças, como glaucoma, melanoma etc. Mas a segmentação automática destas imagens não é uma tarefa fácil. Para resolver esse problema, algumas técnicas baseadas em classificação não supervisionada e supervisionada têm sido desenvolvidas na literatura. Mas as técnicas de classificação supervisionada são mais demoradas e sensíveis ao custo devido à exigência de dados rotulados suficientes. Em contraste, técnicas de classificação não supervisionada atuam sem usar qualquer informação prévia, mas sofrem dos problemas de armadilhas locais. Assim, para superar os problemas associados às técnicas de classificação não supervisionadas e supervisionadas, propusemos um novo algoritmo de agrupamento semissupervisionado chamado Seeded Fuzzy C-means (SFc-means), usado para segmentar regiões de interesse em imagens médicas. O SFc-means é  baseado em lógica fuzzy e usa poucos dados fornecidos por um médico para segmentar essas regiões. Desta forma, o algoritmo automatiza uma das etapas mais dispendiosas do diagnóstico, levando a uma análise mais rápida. Neste trabalho, o algoritmo proposto foi avaliado em bases de leucemia, câncer de pele, câncer de colo do útero e glaucoma, doenças que podem assumir um estágio grave e irreversível caso não haja um diagnóstico rápido e preciso. Os resultados obtidos ilustram a viabilidade da aplicação do algoritmo a fim de efetivamente auxiliar os médicos na detecção das regiões, uma vez que, na maioria dos testes, obteve-se um índice Kappa “Excelente” e taxas superiores comparadas aos outros algoritmos. Além disso, os baixos valores de desvio padrão revelam a estabilidade na execução do SFc-means. A partir da eficácia nos resultados da segmentação de imagens médicas, foi realizado um teste desse algoritmo em umas das etapas de um sistema de diagnóstico do glaucoma. Esse teste também obteve resultados eficazes, se sobressaindo quando comparado à alguns métodos da literatura.

  • RANULFO PLUTARCO BEZERRA NETO
  • Range-Only SLAM Baseado em Wi-Fi Utilizando Filtro de Kalman Estendido para Cellbot
  • Advisor : ANDRE MACEDO SANTANA
  • Data: Mar 6, 2018
  • Show resume
  • Com o advento de novas tecnologias e o barateamento de componentes eletrônicos, a facilidade de aquisição de um smartphone tem crescido a cada dia. Atualmente, os smartphones são detentores de processamento computacional com capacidade semelhante ou superior à alguns computadores no mercado. Diversas pesquisas demonstram a viabilidade do uso de smartphones na robótica e, como tais, este trabalho almeja aplicar uma técnica probabilística para solucionar o problema de SLAM em uma arquitetura Cellbot, onde o acionamento é realizado por um sistema embarcado e o processamento é feito em um smartphone. A proposta deste trabalho consiste em uma abordagem baseada no uso de dois receptores de sinal de Wi-Fi, usando a informação do RSS (Received Signal Strength) recebida pelos nós transmissores (Pontos de Acesso) para o problema de SLAM (Simultaneous Localization and Mapping). A solução apresentada é baseada no Filtro de Kalman Estendido utilizando apenas os RSS provindos de diferentes transmissores no cenário. O sistema em questão considera que o robô navega em um ambiente desconhecido onde recebe diferentes sinais de Wi-Fi com correspondência conhecida. A partir do uso da odometria e dos sinais Wi-Fi recebidos, o robô localiza a posição de cada um dos transmissores Wi-Fi bem como a si mesmo. Os resultados realizados por meio do simulador V-REP são apresentados para validar a proposta.

  • SÁVIO MOTA CARNEIRO
  • Abordagem Multiobjetivo para Alocação de Monitores de Qualidade de Energia Elétrica em Sistemas de Distribuição
  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Feb 20, 2018
  • View Dissertation/Thesis   Show resume
  • Dentre os distúrbios de Qualidade da Energia Elétrica, destacam-se entre os mais relevantes e de maior ocorrência os afundamentos de tensão, pois além da sua natureza estocástica, o que torna difícil o seu monitoramento, causam enormes prejuízos às concessionárias e consumidores. O monitoramento constante é essencial para identificar os distúrbios existentes, no entanto os custos envolvidos inviabilizam o monitoramento completo do sistema, assim apenas um número reduzido de monitores está disponível, devendo serem instalados em posições estratégicas para cobrir a maior quantidade de eventos possíveis. Desta forma, percebe-se que a determinação dos pontos de instalação dos equipamentos é um fator crucial para o sucesso do plano de monitoramento. Este trabalho apresenta uma abordagem para a resolução do problema de alocação de monitores de qualidade de energia elétrica considerando vários aspectos do problema como a cobertura topológica, os afundamentos de tensão ocorridos, porém não monitorados e o custo total dos equipamentos instalados. Para contemplar os diversos aspectos mencionados, a abordagem proposta é baseada em um modelo de otimização multiobjetivo. O Non-Dominated Sorting Genetic Algorithm II (NSGA-II) foi empregado para resolução desse problema de otimização multiobjetivo devido a sua eficiência ao lidar com problemas de natureza combinatória. A abordagem proposta utiliza o Método das Posições de Falta para determinar os pontos de vulnerabilidade no Sistema de Distribuição para cada tipo de falta: monofásica, bifásica (fase-fase e fase-fase-terra) e trifásica. Dessa forma, a abordagem permite obter uma Matriz de Tensão Durante a Falta que representa o comportamento do sistema, considerando todos os tipos de faltas possíveis. A abordagem apresentada foi submetida aos sistemas de testes de 13, 34 e 37 barras do IEEE, simulados no software DigSILENT Power Factory 15.1. Os resultados obtidos permitem ao usuário à tomada de decisões sobre a quantidade e localização dos monitores que devem ser instalados, de forma a se adequar a realidade financeira da concessionária e evitar gastos desnecessários que não se traduzem em melhoria na capacidade de monitoramento. Desta forma, a concessionária pode adotar uma estratégia de monitoramento que leva em conta o número de afundamentos não cobertos, o custo total do monitoramento, a ambiguidade topológica, o total de cargas não monitoradas e a extensão da área de monitoramento.

     

     

2017
Description
  • FRANCISCO BRUNO DE SOUSA ROCHA
  • Mapeamento Topológico usando Informações de Sensores para Cellbots
  • Advisor : ANDRE MACEDO SANTANA
  • Data: Dec 7, 2017
  • Show resume
  • Um dos grandes desafios da robótica é tornar um robô autônomo, ou seja, o robô deve navegar no ambiente sem a intervenção humana. Essa autonomia pode ser abstraída em cinco etapas hierarquizadas: Mapeamento do Ambiente, Localização, Planejamento de Caminho, Geração de Trajetória e Execução de Trajetória. Este trabalho resolve a primeira etapa da navegação robótica, o mapeamento do ambiente. O mapeamento tem o objetivo de adquirir um modelo espacial do ambiente em que o robô se encontra, este ambiente é representado por meio de um mapa. Este trabalho faz uso de mapas topológicos, que são representados computacionalmente por um grafo, onde os nós representam regiões com informações sensoriais homogêneas e são conectados entre si por arestas. O grafo descreve os espaços livres para execução de tarefas. Por isso, o mapa topológico, devido a sua estrutura, é uma solução compacta para o armazenamento do grafo na memória e pode ser usado para resolução de problemas de alto nível, como planejamento de tarefas. O objetivo deste trabalho é implementar um sistema de mapeamento topológico usando informações de redes sem fio para um cellbot, afim de mostrar sua eficiência em mapear um ambiente indoor. Com a finalidade de reduzir os custos financeiros do projeto optou-se por utilizar um robô da arquitetura cellbot, um robô que utiliza um dispositivo móvel (smartphone) para processar informações. Geralmente já integrados ao smartphone dispomos de giroscópio, câmera e acelerômetro, componentes que podem ser usados na navegação robótica. O trabalho apresenta resultados do sistema de mapeamento topológico com informações de odometria e RSS, executando em três cenários com complexidade crescente. Os resultados apresentados dos tempos de execução no trabalho em smartphones são positivos. Para ambientes pouco complexos permite um tempo médio de 0,17 ms.

     

  • DENNIS SÁVIO MARTINS DA SILVA
  • Uma Abordagem Baseada em Métricas de Componentes de Software para a Priorização de Casos de Teste
  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Sep 15, 2017
  • Show resume
  • O teste de software é a principal forma de detectar falhas e avaliar a qualidade de um programa. Dentre os tipos de teste de software, podemos destacar o teste de regressão, que reexecuta os casos de teste do sistema para verificar se modificações em uma versão do programa não trouxeram prejuízo ao funcionamento de módulos que estavam atuando corretamente em versões anteriores. A forma mais comum de teste de regressão é a reexecução de todos os casos de teste do sistema, mas o crescimento no porte de umsistema de software pode dificultar essa abordagem devido a restrições de tempo ou de custos. Dentre as abordagens para resolver esse problema e melhorar o teste de regressão,podemos destacar a priorização de casos de teste, que consiste na alteração da sequência de execução dos casos de teste, buscando maximizar alguma propriedade da suite (conjunto) de testes. Este trabalho tem por objetivo priorizar casos de teste, buscando maximizar a taxa de detecção de falhas do teste de regressão. Para isso, é proposta uma abordagem em três etapas: na primeira etapa, são atribuídos valores de criticidade aos componentes do software por meio de um sistema de inferência fuzzy, cujas entradas são métricas de software relacionadas à susceptibilidade a falhas; na segunda etapa, é calculada a criticidade dos casos de teste, com base na criticidade dos componentes de software por eles cobertos; na terceira etapa acontece a priorização dos casos de teste, que emprega otimização por colônia de formigas para ordenar os casos de teste considerando suas criticidades, tempos de execução e histórico de detecção de falhas. As soluções foram avaliadas com base nas métricas APFD (Average Percentage of Fault Detection, que representa a taxa de detecção de falhas) e APFDC (variação do APFD que considera os custos de execução dos casos de teste e a severidade das falhas). Foram realizados experimentos com programas obtidos em um repositório aberto de objetos de software, e os resultados obtidos com a abordagem foram comparados à ordenação original das suites, à ordenação obtida por meio de uma busca exaustiva e a uma ordenação obtida por um algoritmo guloso. Além disso, os resultados foram submetidos a um teste de sanidade e comparados à ordenação aleatória, apresentando fortes indícios de adequação ao problema.

     

     

  • ALAN RAFAEL FERREIRA DOS SANTOS
  • Classificação de Imagens Dermatoscópicas utilizando Aprendizado Profundo
  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Sep 1, 2017
  • Show resume
  • O melanoma é considerado o câncer de pele de maior gravidade e a sua descoberta em estágios avançados pode levar o paciente a óbito. O diagnóstico precoce ainda é a melhor forma de prescrever um tratamento adequando. Nesse contexto, o presente trabalho apresenta duas abordagens de classificação de imagens dermatoscópicas através da utilização de aprendizado profundo com as Redes Neurais Convolucionais. A primeira delas é baseada nos princípios tradicionais de detecção do melanoma, utilizando os conceitos da regra ABCD. Para tal, essa proposta de abordagem desenvolve as etapas de pré-processamento com filtros morfológicos, segmentação com o método Fuzzy K-means, extração de características de assimetria com o descritor de geometria, bordas com o método de Histogram Oriented Gradient, cor com o descritor Estatístico em Canais de Cores e os métodos de Haralick e de Gabor Bank Filter para obter os dados de texturas. Por fim, a classificação desses dados é realizada com uma arquitetura convolucional. A segunda abordagem sugerida nesse trabalho utiliza as arquiteturas de redes convolucionais AlexNet e VGG-F. Antes de treinar essas redes, o conjunto de imagens é ajustado através do método de data augmentation. Após o treino, os modelos convolucionais são utilizados como descritores de características através das camadas FC6 e FC7. Em ambas as abordagens propostas, são utilizados os métodos de classificação Support Vector Machine, K-Nearest Neighbor e MultiLayer Perceptron. Esses classificadores são implementados na maioria das formas de diagnóstico de lesões cancerígenas. Os testes realizados nesse trabalho utilizaram as bases de imagens PH2 e ISIC. A abordagem de classificação com as redes convolucionais obteve uma acurácia de 93,1% na classificação correta do melanoma. Já a abordagem com modelos convolucionais treinados obteve, em seu melhor resultado, uma acurácia de 91,5% na classificação das lesões cancerígenas com a descrição da arquitetura AlexNet, utilizando um treinamento com o método de bach normalization.

     

     

  • DENISE ALVES DA COSTA
  • Visualizando Comunalidades e Variabilidades em uma Família de Produtos de Software
  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Aug 29, 2017
  • Show resume
  • Linha de Produto de Software (LPS) é uma forma de desenvolvimento de software, na qual existe uma coleção de sistemas que compartilham um conjunto de artefatos, mas possuem componentes customizados para clientes específicos. Muitas são as vantagens de se utilizar uma LPS, como por exemplo, a melhor gestão das aplicações, entretanto muitos também são os desafios para a sua adoção. Embora a engenharia de LPS ofereça menores custos à fábrica de software, a sua implantação ainda é um processo oneroso. Existem hoje três abordagens distintas para a implantação da linha de produto em um processo de desenvolvimento, definidas para as diferentes necessidades do mercado. Uma delas denomina-se abordagem extrativa, na qual a LPS será construída a partir de produtos de software individuais pré-existentes. Empresas que já possuem diversas variantes de um produto, por exemplo, tem dificuldade em adotar LPS devido, dentre outros motivos, aos próprios custos decorrentes da migração de produtos individuais para uma plataforma única de desenvolvimento. Para realizar essa transição, são necessárias algumas atividades como identificar o que é comum e o que é variante dentre os produtos de software, reunir todo o código em um único local e prover um ambiente para desenvolvimento integrado. A fim de auxiliar o processo de adoção de LPS, este trabalho propõe um método para apoiar as empresas na primeira das etapas acima citadas, que é identificar as comunalidades e variabilidades existentes nos produtos que fazem parte do portfólio da empresa. Para alcançar esse objetivo, o método propõe uma ferramenta de visualização dessas comunalidades e variabilidades. De posse dessa informação, o gerente de projetos possui maiores subsídios para guiar o planejamento da reengenharia de seus produtos.

     

     

     

  • SEBASTIÃO GALENO PEREIRA FILHO
  • "Uma nova metodologia para simulação de protocolos de detecção e minimização de congestionamentos de veículos em cenários que utilizam traces de tráfego"
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Jun 23, 2017
  • View Dissertation/Thesis   Show resume
  • O crescente número de veículos nas cidades, principalmente nos grandes centros urbanos, provoca alguns problemas de mobilidade. Um desses problemas é o congestionamento de trânsito que causa stress aos motoristas, grandes prejuízos financeiros para o país e prejuízos ambientais relacionados à emissão do dióxido de carbono (CO2). Para auxiliar na detecção e redução de congestionamentos têm sido propostos Sistemas Inteligentes de Transportes utilizando redes veiculares. As redes veiculares (VANETs - Vehicular Ad hoc NETworks) são um tipo especial de rede móvel ad hoc (MANET, Mobile Ad hoc NETwork) cuja principal característica é a capacidade dos veículos comunicarem entre si. Assim, por meio das redes veiculares, pode-se criar aplicações para gerenciar os congestionamentos de tráfego existentes e consequentemente reduzir o tempo de viagem dos veículos. Contudo, para atestar que esse tipo de aplicação é eficiente e pode ser utilizada por milhões de motoristas ao redor do mundo é preciso certificar-se que esta aplicação funciona, validando-a por meio de experimentos reais ou mais próximos de um ambiente real. De acordo com a literatura consultada, os experimentos que utilizam cenários reais e traces de tráfego vêm sendo uma alternativa aos experimentos reais para validar aplicações de monitoramento e controle de congestionamentos de tráfego. Apesar do uso de traces ser uma ótima maneira de validar esses protocolos em redes veiculares, existem alguns desafios nesses experimentos que devem ser mencionados: a escolha do cenário e trace adequado, a escolha da região e faixa de tempo do trace que será simulado. Por causa desses fatores nem todos cenários e traces podem ser adequados para validar as aplicações que gerenciam congestionamentos de tráfego, além do longo tempo necessário para realizar todas as simulações dos experimentos. Com isso, a proposta deste trabalho de mestrado é propor uma nova metodologia para simulação de protocolos de controle de congestionamentos de veículos em cenários que utilizam traces. Esta metodologia visa identificar as melhores áreas do cenário, melhores momentos do trace para serem utilizados e, principalmente, diminuir o tempo de simulação dos experimentos. Além disso, apresenta-se um estudo de caso utilizando a metodologia proposta que apresenta resultados para as diferentes regiões do cenário, caracterizando-as de acordo com a quantidade de veículos, velocidade dos veículos e níveis de congestionamentos das vias.

     

     

     

  • EUCASSIO GONÇALVES LIMA JÚNIOR
  • Entropia de projeção do Gabor Curvo com Random Forest para reconhecimanto de face
  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Jun 9, 2017
  • View Dissertation/Thesis   Show resume
  • O reconhecimento facial tem por objetivo primordial identificar uma pessoa baseada em imagens de sua face. Apesar de vários avanços obtidos, alguns desafios permanecem como problemas não resolvidos, resultantes principalmente de condições não controladas do ambiente, tais como mudanças de iluminação, oclusão, variações de expressões faciais e posição da cabeça. Este trabalho apresenta uma abordagem para reconhecimento facial, caracterizando-se pela robustez a oclusão, variações de iluminação e expressões faciais. A abordagem proposta é constituı́da de seis etapas e baseia-se na combinação do filtro de Gabor curvo, entropia da função de projeção de variância, Random Forest e Support Vector Machine (SVM). O filtro de Gabor curvo é utilizado para realizar a extração do vetor de caracterı́sticas de uma imagem. Em seguida, as magnitudes das respostas de Gabor curvo são segmentadas em blocos não sobrepostos, com o intuito de diminuir a interferência de variações locais na imagem. A entropia da função de projeção de variância é usada para reduzir dados mais relevantes a partir da etapa anterior. Por fim, para construir o vetor final de caracterı́sticas utiliza-se o Random Forest. Por meio dele identifica-se os elementos mais relevantes da extração de caracterı́sticas visando manter os dados mais representativos da imagem, dessa forma, a abordagem apresenta uma baixa dimensionalidade do vetor de caracterı́sticas. De posse do vetor de caracterı́sticas, inicia-se o processo de treinamento do classificador, considerando os diversos indivı́duos da base de imagens. Após o treinamento do SVM, pode-se colocar a abordagem em operação para efetuar o reconhecimento facial das pessoas. Um conjunto de experimentos foi realizado, para avaliar a abordagem apresentada sobre caracterı́sticas de cenários encontrados em um ambiente real, fazendo uso das bases de imagens: AR Face, Feret, Essex e Essex com oclusão. A abordagem proposta foi avaliada em diversos cenários considerando variações de iluminação, oclusão por óculos de sol, variação de iluminação com oclusão por óculos de sol, oclusão por cachecol, variação de iluminação com oclusão por cachecol, mudança de expressão facial e todos os cenários juntos. Os resultados obtidos por meio dos experimentos superam as abordagens do estado da arte disponı́veis na literatura em todas as bases.

     

     

  • ÍTALO BARBOSA BRASILEIRO
  • Alocação de Regeneradores com Tonificação de Circuitos Para Redes Ópticas Elásticas
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: May 12, 2017
  • Show resume
  • As redes ópticas elásticas surgem como fortes candidatas para suprir a crescente demanda de tráfego, problema acarretado pela popularização dos dispositivos móveis e crescimento de aplicações com tráfego de grande volume de dados. Entretanto, alguns problemas precisam ser solucionados, a fim de obter maior aproveitamento dos recursos das redes ópticas elásticas. Problemas como roteamento, escolha de modulação, alocação de espectro, fragmentação, e imperfeições de camada física são alvos de estudo para pesquisadores da área. O principal objetivo deste trabalho é a proposta de um algoritmo para reduzir os efeitos de camada física nos circuitos da rede. O algoritmo de Alocação de Regeneradores com TOnificação de Circuitos (ARTO) seleciona os regeneradores a serem utilizados, e adapta o formato de modulação aplicado ao circuito a fim de fortalecer o circuito e reduzir interferências de futuros novos circuitos na rede. Simulações foram realizadas, e o algoritmo foi comparado com os algoritmos de alocação de regeneradores FLR e FNS, em duas topologias diferentes (EON e NFSNet) e obtem melhor resultado sobre o FLR (concorrente de melhor desempenho) com ganho entre 32.88% e 18.58% para a topologia NSFNet e entre 31.16% e 15.56% para a topologia EON. O estudo realizado neste trabalho permite observar que a aplicação do ARTO para cenários de regeneração nas EON potencializa o atendimento de requisições de circuitos, garantindo maior aproveitamento dos recursos da rede.

  • JURANDIR CAVALCANTE LACERDA JÚNIOR
  • Sobrevivência em Redes Ópticas Elásticas Considerando Imperfeições de Camada Física
  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: May 12, 2017
  • View Dissertation/Thesis   Show resume
  •  

     

     

    A Rede Óptica Elástica é uma tecnologia promissora para compor a infraestrutura do núcleo da Internet. Para este tipo de rede é necessário prover mecanismos que garantam a sua disponibilidade mesmo após a ocorrência de uma falha, processo conhecido como sobrevivência de redes. Também é importante garantir a qualidade do sinal óptico, que tende a se degradar pelos efeitos de camada física. Este trabalho de mestrado propõe uma avaliação de desempenho de algoritmos Routing, Modulation Level, and Spectrum Allocation (RMLSA) tolerantes a falhas e que considerem as imperfeições de camada física. Em um estudo inicial, foram avaliados algoritmos de sobrevivência em um cenário ciente dos efeitos de camada física. A partir deste estudo inicial, três algoritmos são propostos: DP-SNR, DP-BSNR e DP-RQoTO. Tais algoritmos levam em consideração os efeitos da camada física nas escolhas de suas rotas e garantem sobrevivência da rede. Foi realizada uma avaliação de desempenho com tráfego dinâmico e requisições com demandas de banda variáveis. Os três algoritmos propostos neste trabalho foram comparados com outras propostas da literatura, obtendo uma diminuição da probabilidade de bloqueio na ordem de 90%. Entre os algoritmos propostos, o DP-RQoTO obteve melhor desempenho na maioria dos cenários avaliados. O ganho, em termos de probabilidade de bloqueio de circuito, do algoritmo DP-RQoTO em relação ao algoritmo DP-SNR foi de até 20,61%. Já em relação ao DP-BSNR, o ganho do DP-RQoTO foi de até 26,62%. Em termos de probabilidade de bloqueio de banda, o ganho do DP-RQoTO chegou a 19,97% em relação ao DP-BSNR e 8,85% em relação ao DP-SNR.

     

     

  • MARCOS ANTÔNIO DE SOUSA FRAZÃO
  •    Avaliação de Algoritmos de Superpixels e Descritores de Textura Para Segmentação das Regiões do Disco Óptico
  • Advisor : RODRIGO DE MELO SOUZA VERAS
  • Data: Apr 28, 2017
  • View Dissertation/Thesis   Show resume
  •  

    Imagens de fundo de olho constituem um valioso recurso para o diagnóstico médico, pois muitas vezes apresentam indicações de doenças oftalmológicas e, até mesmo, doenças sistêmicas como diabetes, hipertensão. A detecção e segmentação automática do disco óptico é um pré-requisito para o diagnóstico auxiliado por computador de várias doenças da retina, como o glaucoma. Esta dissertação trata de uma avaliação de algoritmos de superpixels e descritores de textura para segmentação do disco óptico, com indicativos futuros para detecção do glaucoma usando superpixels. Em se tratando de algoritmos de superpixels, realizamos uma avaliação de seis algoritmos com o intuito de determinar qual deles possuí um melhor desempenho na segmentação de imagens de disco óptico. Os algoritmos avaliados foram: Entropy Rate Superpixel Segmentation - ERS, Simple Linear Iterative Clustering - SLIC, Simple Linear Iterative Clustering (version with 0 parameter) - SLIC0, Java Simple Linear Iterative Clustering - JSLIC, Spatial-Constrained Watershed - SCOW e Linear Spectral Clustering - LSC. Um conjunto de características dos superpixels foram extraídos pelos descritores, GLCM (Grey-Level Co-occurrence Matrix), LBP (Padrão Binário Local), HOG (Histograma de Gradientes Orientados) e  GLRLM (Gray Level Run Length Matrix), em seguida, utilizamos dois classificadores para realizarmos  a classificação que foram: Perceptron de Múltiplas Camadas e Máquinas de Vetores de Suporte. Foram aplicandos um conjunto de medidas estatísticas para avaliar o desempenho do resultado da segmentação. Os classificadores foram utilizados para classificar os superpixels da região da escavação e o disco óptico. Observamos que em geral os algoritmos de superpixels na detecção do glaucoma, que apresentam melhor desempenho, fazem pequenos testes em bases de imagens muito grandes, e com uma pequena quantidade superpixels aplicado na imagem. Propomos testes com nove quantidades de superpixels, para podermos comparar os resultados e saber a melhor quantidade de superpixels para aplicação dos testes.

     

  • HUGO DE OLIVEIRA CORDEIRO
  • Aprimorando a regulação de procedimentos assistenciais a partir da triagem de solicitações
  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Mar 29, 2017
  • View Dissertation/Thesis   Show resume
  • Evitar o desperdício de recursos é um dos maiores desafios para a melhoria do serviço de atenção à saúde no Brasil. No âmbito das operadoras de planos de saúde brasileiras, destaca-se a regulação de solicitações de serviços assistenciais como mecanismo de combate ao desperdício oriundo de erro médico, fraude e abuso. Tradicionalmente a avaliação das solicitações é um processo manual e considerando o volume de solicitações torna-se um mecanismo de manutenção cara e não escalável, que atrasa o acesso do Orientações: O requerimento deve ser TOTALMENTE preenchido e enviado para o e-mail ppgcc@ufpi.edu.br o com pelo menos 40 dias de antecedência. paciente ao serviço além de causar atrito entre operadoras de planos de saúde e prestadores de serviços. Este trabalho propõe a triagem de solicitações para otimizar o processo de regulação. Para isso, técnicas de mineração de dados foram utilizadas para a construção de modelos preditivos a fim de responder automaticamente solicitações que tiverem a probabilidade de autorização igual ou superior a um fator de confiança escolhido pela operadora de planos de saúde, encaminhando o restante das solicitações para a avaliação manual. A abordagem proposta foi avaliada em sete bases de dados disponíveis para o estudo, contemplando seis operadoras de planos de saúde públicas e uma privada. Na base de dados com a proporção menos discrepante entre solicitações autorizadas e não autorizadas foi possível responder automaticamente até cerca de 90\% das solicitações mediante a variação do fator de confiança, porém esse desfecho não foi alcançado nos cenários mais desbalanceadas. Estes resultados mostram a viabilidade da utilização dessa abordagem, em bases de dados balanceadas ou pouco desbalanceadas, para reduzir a carga de trabalho de avaliadores humanos, o que pode tornar o processo mais rápido e mais barato.

  • CARLOS AUGUSTO DE SA
  • Abordagem para Definir a Reputação do Autor em Comentários de Produtos na Web Utilizando Redes Neurais Artificiais
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Mar 22, 2017
  • View Dissertation/Thesis   Show resume
  • Com a popularização da Web 2.0, os serviços de comércio eletrônico permitiram uma interação dos seus usuários de forma bastante intensa. Estes serviços disponibilizam aos seus clientes meios de opinar e também diversos recursos para avaliar as opiniões de outros clientes sobre determinados produtos ou serviços. Atualmente, estas avaliações podem ser feitas através de votos (positivos ou negativos), estrelas, compartilhamentos ou curtidas, por exemplo. Com um alto volume de opiniões e recursos avaliativos, se torna difícil para os novos consumidores lerem tantos comentários para tomarem decisões a cerca de uma compra. Além disso, conhecer a reputação do autor dos comentários é de suma importância para não ser enganado em suas buscas por uma nova aquisição. Neste sentido, a reputação de um autor é considerada uma variável muito importante para avaliar um comentário na Web. No entanto, não existe uma definição formal sobre como calcular essa variável.

    Este trabalho apresenta uma adaptação da abordagem apresentada por de Sousa (2015) para avaliar a importância de comentários sobre produtos e serviços na Web, enfatizando a medida de reputação do autor. A adaptação implementada consiste em utilizar seis medidas referentes ao autor que são fornecidas como entradas em uma Rede Neural Artificial Multilayer Perceptron. Em uma avaliação preliminar, a Rede Neural apresentou a acurácia de 62,08% no processo de classificação do autor. Adicionalmente, foi realizado um experimento para comparar as duas abordagens e os resultados mostram que a abordagem adaptada obteve um ganho na classificação da importância dos comentários.

     

     

  • RONEY LIRA DE SALES SANTOS
  • Um Estudo Comparativo entre Abordagens baseadas em Sistemas Fuzzy e Redes Neurais Artificiais para Estimar a Importância de Comentários sobre Produtos e Serviços
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Mar 21, 2017
  • View Dissertation/Thesis   Show resume
  • A evolução do e-commerce e das Redes Sociais Online (RSO) tornaram significativo o crescimento da Web e como consequência, a quantidade de informações disponíveis tem aumentado bastante a cada dia, tornando a tarefa de analisar comentários, de forma manual, praticamente impossível para o processo de tomada de decisão de compra (ou não) de um produto ou serviço. Conhecer a opinião de outros consumidores é de suma importância para esse processo. Devido ao volume de informações, a criação de métodos automáticos de extração de conhecimento e mineração de dados tornou-se necessária. A avaliação da opinião é um ponto forte tratado por pesquisadores de Processamento de Linguagem Natural (PLN) no âmbito da Análise de Sentimentos ou Mineração de Opinião. Atualmente, para facilitar a procura de comentários pelo usuário, alguns sites utilizam filtros tais como por utilidade ou por estrelas, mas não são melhores formas pois podem excluir comentários novos que ainda não foram votados. Uma solução para tal problema seria filtrar os comentários a partir da sua descrição textual, a fim de selecionar os comentários mais importantes para o consumidor ler e tomar uma decisão. Sousa (2015) propôs uma abordagem denominada TOP(X) para estimar o grau de importância de comentários sobre produtos e serviços utilizando um modelo computacional inspirado em Sistemas Fuzzy, reportando resultados satisfatórios na detecção dos comentários mais importantes, mas com alguns problemas que ficaram pendentes de resolução e melhoras, além da possibilidade de alterar o modelo computacional usado na abordagem TOP(X). Esta dissertação propõe adaptações em duas variáveis de entrada da abordagem: quantidade de tuplas <característica, palavra opinativa> e riqueza do vocabulário. Após as adaptações, propõe-se a construção de duas novas abordagens utilizando modelos computacionais baseados em Sistemas Fuzzy e Redes Neurais Artificiais (RNA). O objetivo geral desta dissertação é comparar ambas as abordagens por meio de medidas estatísticas que permitem fazer a equiparação de modelos computacionais paramétricos. As adaptações nas variáveis de entrada da abordagem TOP(X) fazem parte dos objetivos específicos, nas quais são propostos novos padrões linguísticos e uma ontologia, que foram utilizadas em um novo método de inferência semântica e novos índices para mensurar a riqueza do vocabulário do comentário. Experimentos realizados no domínio de hotéis mostraram que na comparação das abordagens, a abordagem utilizando Sistema Fuzzy obteve melhores resultados ao detectar os comentários mais importantes enquanto a abordagem usando Redes Neurais Artificiais melhor se comportou na detecção dos comentários mais importantes quando se define a sua orientação semântica sendo positiva ou negativa.

     


  • JAILSON NUNES LEOCÁDIO
  • Descoberta de Conhecimento em Base de Dados sobre Avistamentos de Peixes-boi Marinho (Trichechus manatus manatus) no Estuário dos Rios Timonha e Ubatuba (PI/CE)
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Mar 20, 2017
  • View Dissertation/Thesis   Show resume
  • O peixe-boi marinho (Trichechus manatus manatus) é o mamífero aquático mais ameaçado de extinção no Brasil e sua distribuição ao longo da costa marinha tem diminuído com o passar dos anos. Para que se desenvolva propostas de preservação e manejo da espécie e dos ambientes onde vive é necessário informações sobre a interação desses organismos com os recursos naturais disponíveis em seu habitat e as características ambientais que tornam possível a sua sobrevivência. Métodos estatísticos frequentemente são usados para este propósito, porém não se adequam totalmente à necessidade, tendo em vista que os ecossistemas apresentam relações não-lineares entre seus componentes. Dada a existência de um volume de dados coletados sobre a presença de peixe-boi marinho no estuário dos rios Timonha e Ubatuba (PI/CE) foi proposto o uso do processo de Descoberta de Conhecimento em Bases de Dados (DCBD) para manipulação dessas informações para se estimar a presença e a localização de espécimes. A metodologia utilizada engloba o pré- processamento, transformação, mineração dos dados e interpretação dos padrões obtidos. Foi relizado a preparação da base e dados e na fase de Data mining (mineração de dados) do processo de DCBD foram empregados algoritmos classificadores dos paradigmas simbólico (J48, Random Forest e Random Tree), estatístico (Naive Bayes e Tree Augmented Naive Bayes) e conexionista (Multi Layer Perceptron e Radial Basis Function) para definir qual deles têm melhor desempenho em estimar a presença do animal, de acordo com a situação ambiental representada pelos atributos da base de dados, e a região de aparecimento dos espécimes e para a obtenção de padrões significativos e válidos que possam apoiar o planejamento e ações em favor da continuidade da espécie. A rotulação automática de grupos também foi utilizada sobre os clusters gerados pelo algoritmo não-supervisionado K-means para definição e entendimento das características comuns aos elementos agrupados semelhantemente. Os resultados obtidos foram avaliados de acordo com um conjunto de métricas selecionadas (acurácia, índice Kappa, precisão, recall, f-measure e área sob a curva ROC) para que se pudesse verificar a qualidade dos modelos gerados, selecionar os melhores resultados e descobrir informações importantes sobre os atributos estudados. A interpretação dos padrões obtidos foi apoiada pela literatura especializada e os resultados estão de acordo com o que é mostrado pelos levantamentos de distribuição e ocorrências do mamífero no país..

     

     

2016
Description
  • DIEGO PORTO ROCHA
  • Sistema de localização para Cellbots integrando odometria visual monocular e força de sinal WiFi
  • Advisor : ANDRE MACEDO SANTANA
  • Data: Sep 21, 2016
  • View Dissertation/Thesis   Show resume
  • Um dos principais desafios da robótica móvel consiste em dotar robôs de autonomia. Neste sentido, aflora a necessidade de um sistema capaz de computar a pose (posição e orientação) do robô no seu espaço de trabalho – Sistema de localização. Este trabalho apresenta um sistema de localização utilizando odometria visual e sinal WiFi. O sistema foi projetado para ser utilizando em uma plataforma robótica da arquitetura cellbot (robôs baseados em dispositivos móveis) e faz uso do filtro probabilístico de partículas para realizar a correção da pose do robô no ambiente. Foram realizadas análises combinando algoritmos de detecção, descrição e correspondência na odometria visual, bem como a influência da quantidade de features detectadas no desempenho da odometria. Também foram analisados a precisão e custo da diversificação na quantidade de partículas utilizadas no filtro e a influência da quantidade de pontos de acesso WiFi utilizados. Os resultados experimentais com plataforma robótica e simulação são analisados e apresentados neste trabalho. O sistema demonstrou ser capaz de localizar um robô cadeira de rodas.

     

     

     

  • JACKSON CUNHA CASSIMIRO
  •  Investigação dos Efeitos do Desbalanceamento de Classes na Aprendizagem da Regulação de Planos de Saúde

  • Advisor : ANDRE MACEDO SANTANA
  • Data: Sep 16, 2016
  • View Dissertation/Thesis   Show resume
  •  

     

    A operação de planos privados de assistência à saúde no Brasil representa uma importante via de prestação de serviços à população. O Brasil é o maior mercado de saúde privada na América do Sul, sendo que em 2012 os custos com saúde representaram cerca de 8% do PIB. Nesse mercado, muitas empresas operadoras de planos de saúde (OPS) encontram-se em situação de desequilíbrio financeiro, caracterizada pelo fato de as despesas somadas representarem um valor maior que as receitas. Fraudes e abusos na utilização de serviços em saúde são dois fatores que influenciam diretamente esse desequilíbrio, uma vez que correspondem a despesas que poderiam ser eliminadas sem prejuízo à qualidade dos serviços prestados. Um dos mecanismos empregados pelas OPS para evitar despesas indevidas decorrentes de fraudes e abusos é a Regulação, que consiste em uma análise prévia antes da liberação para realização, dos serviços que são solicitados pelos prestadores de saúde. A análise manual das solicitações que é realizada durante a regulação de planos de saúde é um exemplo de fator que tem motivado as OPS a desenvolverem sistemas capazes de identificar fraudes e abusos de forma automática ou semi-automática, muitas vezes por meio de técnicas de Mineração de Dados e Aprendizagem de Máquina. Neste cenário, a utilização dessas técnicas é impactada pelo problema do desbalanceamento de classes, oriundo do fato de haver muito mais solicitações de serviços autorizadas do que não autorizadas pelo processo de regulação. A proposta deste trabalho é investigar os efeitos desse problema na aplicação de técnicas de aprendizagem de máquina no contexto da regulação de planos de saúde. Mais precisamente, é investigar por meio de um experimento o quanto de performance de predição é perdida devido ao desbalanceamento de classes e o quanto dessa performance perdida pode ser recuperada utilizando-se métodos de tratamento específicos aplicados aos dados. Este experimento emprega bases de dados em que as distribuições de classes foram modificadas artificialmente, algoritmos de classificação de diferentes paradigmas e diferentes métodos de tratamento de dados. Entre os resultados mais importantes, notou-se que o desbalanceamento de classes afeta sim a performance de aprendizagem da regulação, mas de forma diferente para cada algoritmo estudado. Observou-se também que os métodos de tratamento são capazes de reduzir a perda de performance, mas também que essa redução depende do algoritmo de classificação e da distribuição de classes empregados em conjunto.

     

     

  • LAYSSON OLIVEIRA LUZ
  • ArachNoc : Um processador manycore com nós de processamento multicore suportando o modelo de programação IPNoSys

  • Advisor : IVAN SARAIVA SILVA
  • Data: Sep 16, 2016
  • View Dissertation/Thesis   Show resume
  • Multiprocessadores são arquiteturas com mais de um núcleo de processamento que exploram o paralelismo para fornecer maior desempenho. Eles têm sido pesquisados e implementados na construção de computadores de alto desempenho (HPC - High Perfomance Computers). Com muitos núcleos de processamento, a comunicação entre os mesmos é fator crucial para obtenção de alto desempenho. É com base nela que são determinadas a velocidade de processamento, o consumo de energia, o espaço em chip e a escalabilidade. A fim de reduzir a latência na comunicação e aproximar processadores e memórias, pesquisadores têm investido na conexão das unidades de processamento por meio de redes em chip (em inglês, NoC), os chamados MP-SoCs (Multiprocessor Systems-on-Chip). Este trabalho apresenta um MP-SoC com um sistema de comunicação e sincronização entre processos que tem por base o padrão de paralelismo Fork-Join. Tal arquitetura, chamada ArachNoc, é composta por nós multicore de processamento. Esses nós possuem nove núcleos, sendo um mestre e oito escravos, que são baseados na ISA MIPS, e conferem suporte à programação paralela por meio da inserção das instruções de sincronização. Para a validação e avaliação de desempenho do sistema proposto, foram desenvolvidas aplicações paralelas. Para a produção destas aplicações foram utilizadas a linguagem C de programação e a biblioteca OpenCL, e para gerar os códigos binários foram desenvolvidos dois compiladores cruzados (do inglês, cross-compiler): um compilador GNU GCC to ArachNoc e outro LLVM to ArachNoc. O benchmark desenvolvido conta com aplicações dos mais diversos níveis de avaliação de desempenho, desde aplicações para apenas validar o sistema em chip, até aplicações para exaurí-lo, isto é, extrair o desempenho máximo do sistema. Algumas delas são: Multiplicação de Matrizes (com diferentes formas de paralelismo), Dijkstra, Algoritmos Genéticos Simples e Algoritmos para processamento de imagens, como o Filtro Laplaciano.

  • JÔNATAS CARNEIRO DOS SANTOS FERREIRA
  • CLEM & OCEAN: Dois Compiladores OpenCL para as Arquiteturas Manycore METAL e ArachNoC

  • Advisor : IVAN SARAIVA SILVA
  • Data: Sep 15, 2016
  • View Dissertation/Thesis   Show resume
  • Nos últimos anos, é notório a evolução das arquiteturas manycores. Essas arquiteturas se caracterizam por possuírem dezenas de núcleos de processamento integrados em um único circuito que executam tarefas de maneira concorrente. Dadas as conhecidas dificuldades associadas à programação paralela, tais sistemas serão subutilizados caso não sejam adotadas ferramentas que ofereçam recursos que simplifi- quem o desenvolvimento de aplicações. Partindo dessa premissa, este trabalho descreve o desenvolvimento de um conjunto de ferramentas de compilação para as arquiteturas manycore METAL (ManycorE PlaTform Adatted to OpenCL) e ArachNoC (Arachnid NoC). As duas plataformas são manycore com múltiplos nós de processamento conectados por uma rede em chip (NoC - Network on Chip) com topologia em malha 2D. Possuem oito nós de processamento multicores mais um nó mestre dotado de um único núcleo de processamento. Enquanto METAL possui uma arquitetura, em particular a hierarquia de memória, adaptada ao modelo de programação OpenCL (Open Computing Language), ArachNoC confere suporte à programação paralela por meio da inserção das instruções de sincronização. Para o desenvolvimento da ferramenta proposta, o framework OpenCL será adotado como modelo de programação. A adoção de OpenCL se justifica pelo fato de tal framework ter se tornado, nos dias atuais, a principal alternativa para programação de sistemas dotados de múltiplos núcleos de processamento. A infra-instrutura LLVM (Low Level Virtual Machine) foi utilizada para criação de um compilador. Busca-se contribuir no desenvolvimento de um conjunto de ferramentas de compilação para as plataformas citadas, bem como, no desenvolvimento de uma técnica de geração de código para a execução em arquiteturas multicore, e oferecer recursos que facilitam o desenvolvimento de tais arquiteturas. Para validação e avaliação das ferramentas propostas, foram realizados comparativos com o compilador GCC (GNU Compiler Collection). Os resultados mostram que as ferramentas criadas possuem tempo de compilação e execução superiores ao GCC.

     

     

  • RAMON SANTOS NEPOMUCENO
  • METAL: Uma Plataforma Manycore de Propósito Geral Adaptada ao Modelo de Programação OpenCL

  • Advisor : IVAN SARAIVA SILVA
  • Data: Sep 13, 2016
  • View Dissertation/Thesis   Show resume
  • O termo GPGPU (General Purpose Graphics Processing Unit) é utilizado para denominar o uso de GPUs (Graphics Processing Unit), em conjunto com CPUs (Central Processor Unit), para computação de propósito geral. Embora esses sistemas sejam capazes de executar aplicações de propósito geral e SIMD (Single Instruction Multiple Data), CPUs e GPUs são projetadas separadamente, portanto, apresentam características distintas que dificultam a maximização do potencial dessas arquiteturas quando utilizadas em conjunto. Este trabalho apresenta METAL (ManycorE plaTform Adapted to opencL), uma plataforma manycore baseada em rede em chip, cuja arquitetura foi concebida com o propósito de executar, nativamente, tanto aplicações SIMD quanto de propósito geral. A programação SIMD é realizada utilizando a linguagem OpenCL, cuja execução é facilitada pelo uso de um escalonador de work-items e de um modelo de memória compatível. Os núcleos de processamento utilizados na plataforma são processadores de propósito geral MIPS que, com o suporte de recursos em hardware, permitem o uso de programação paralela utilizando a técnica de exclusão mútua. Algumas aplicações foram desenvolvidas para validar e avaliar o desempenho, bem como a programabilidade da arquitetura. Os algoritmos: Dijkstra; multiplicação de matrizes; problema das N rainhas com solução por algoritmos genético paralelo; jantar dos filósofos e detecção de borda aplicando o filtro laplaciano foram desenvolvidos e executados em um simulador implementado em SystemC. Os experimentos mostram o desempenho da plataforma ao executar os algoritmos e impacto que a comunicação utilizando a rede em chip exerce nas aplicações.

  • WERNEY AYALA LUZ LIRA
  •  Um método para inferência da familiaridade de código em projetos de software 

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Sep 1, 2016
  • View Dissertation/Thesis   Show resume
  •  

     

    Durante o desenvolvimento de software é comum o uso de ferramentas para armazenar ou compartilhar informações entre a equipe. Essas informações podem ser alguns documentos ou até mesmo o código fonte de todo o projeto que está sendo desenvolvido. Uma das ferramentas mais utilizadas é o sistema de controle de versão. Por meio delas é possível obter informações valiosas acerca do processo de desenvolvimento, dos membros da equipe e até mesmo da empresa. Essas informações podem ser utilizadas para apoiar diversas outras atividades também ligadas ao desenvolvimento, como a manutenção de sistemas, aprimorar o design e reutilização do software, além de servir para, empiricamente, validar novas ideias ou técnicas. Neste trabalho as contribuições dos desenvolvedores para código do projeto, obtidas a partir dos commits feitos ao sistema de controle de versão, são utilizadas para inferir a familiaridade que cada membro da equipe tem com o código do projeto. Além das contribuições, foram criadas algumas métricas para tratar de aspectos relacionados ao desenvolvimento de software e ao próprio ser humano, como a sua capacidade de esquecer algo que implementou ao longo do tempo ou a possibilidade de o que fez ser sobrescrito por outro desenvolvedor. Para facilitar a visualização da familiaridade de código em toda a estrutura do projeto foi criado uma ferramenta denominada CoDiVision. Por meio das avaliações feitas percebeu-se que as informações obtidas nesse processo podem ser utilizadas para diversos objetivos como no apoio aos professores na atividade de escolha da nota de alunos de disciplinas de programação, ou no apoio aos gerentes de projeto na descoberta dos membros com maior familiaridade com a finalidade de dar mais agilidade ao projeto, atribuindo as atividades ao membros com maior familiaridade, ou na melhor distribuição da familiaridade com a finalidade de evitar eventuais prejuízos decorrentes da ausência de um membro com alta familiaridade. Pode auxiliar ainda as próprias equipes de desenvolvimento na procura dos membros com maior familiaridade para retirar dúvidas acerca do código do projeto.

     

     

     

  • ELLEN GERA DE BRITO MOURA
  •  CAChTI - Modelo de Classificação Semiautomático de Chamados Técnicos de TI

  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Aug 26, 2016
  • View Dissertation/Thesis   Show resume
  • Serviços de call-center (ou service desk) são classificados, a fim de categorizar, priorizar e identificar soluções para casos semelhantes. As mensagens também podem ser utilizadas para definir a área e o técnico responsável pela manutenção do chamado. Considerando os ambientes corporativos, a classificação correta otimiza os recursos e minimiza impactos negativos para o negócio. Serviços normalmente são abertos por usuários de TI e escritos em linguagem natural, através de softwares específicos para gestão do chamado ciclo de vida.

    Esta Dissertação apresenta um modelo de classificação semiautomático para serviços de TI, utilizando técnicas de processamento de linguagem natural e algoritmos de aprendizagem de máquina supervisionados. Uma rede semântica foi utilizada para a definição de features conceituais. Com o modelo proposto foi possível reduzir a dependência humana no processo de classificação dos chamados e atividades de priorização, na seleção de técnico para atendimento e no diagnóstico e listagem de possíveis soluções.

    Realizou-se um experimento sobre um corpus de chamados técnicos de TI cedidos por um órgão público do Estado do Piauí, com service desk implantado, contendo 2.064 chamados, distribuídos em 9 classes, previamente anotados. Na Classificação foram utilizados os algoritmos Naive Bayes, J48 e SMO que obtiveram taxas de acerto de 72.9%, 70.7% e 75.8%, respectivamente.

  • HÉLCIO DE ABREU SOARES
  • Help4ERS: uma metodologia para conduzir a escrita de documentos de Especificação de Requisitos de Software
  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Aug 26, 2016
  • View Dissertation/Thesis   Show resume
  • A Engenharia de Requisitos (ER) é o processo de definir, documentar e manter requisitos de softwares e tem como objetivo apoiar a criação e a manutenção do documento de Especificação de Requisitos de Software (ERS). Esse documento é a base para as demais atividades de desenvolvimento e sua qualidade é fundamental para o sucesso do projeto. Ele serve como um contrato entre os participantes do desenvolvimento do software e deve ser produzido de forma que todos possam entendê-lo. Para isso descrições em linguagem natural e modelos de domínio são frequentemente utilizados. No entanto, o uso de linguagem natural pode dar origem a especificações de requisitos incompletos, inconsistentes e ambíguos, gerando interpretações equivocadas sobre os objetivos do sistema, além de impedir suporte computacional em especificações de requisitos. Nesse contexto, esta Dissertação propõe uma metodologia para auxiliar o analista de requisitos a escrever documentos de ERS completos, consistentes, não ambíguos, denominada Help4ERS. A metodologia define padrões de sentenças que ajudam a expressar requisitos de sistemas sem os problemas do uso de linguagem natural. A partir desses padrões, são definidas Linguagens Naturais Controladas (LNC) e Padrões Linguísticos que apoiam a verificação de inconsistências e ajudam na identificação automática de elementos de projeto (casos de uso, atores, classes, atributos e métodos). A metodologia engloba atividades inerentes às fases de ER, tais como análise de domínio da aplicação, definição semântica do domínio, escrita dos requisitos e verificação de inconsistência, além da fase de geração modelos de projeto (diagrama de classe, diagrama de casos de uso e protótipo de interface). A metodologia é apoiada pelo protótipo ERS-EDITOR que implementa os Padrões Linguísticos e as LNC’s e dá suporte automatizado às atividades da metodologia. Uma avaliação preliminar destaca resultados promissores para a abordagem proposta.

  • RICARDO TELES FREITAS
  • Localização e Identificação de Pontos de Referência Facial para Cirurgias Plásticas

  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Aug 26, 2016
  • View Dissertation/Thesis   Show resume
  • A beleza é uma qualidade que gera discussão e intriga o ser humano desde tempos remotos. Filósofos da Grécia Antiga como Platão e Aristóteles já discutiam sobre os aspectos objetivos e subjetivos dessa característica. Já na Renascença, o ideal de beleza humano foi revisto por vários artistas e cientistas daquele tempo. No século XX, os avanços da medicina proporcionaram uma abordagem ainda mais cientifica acerca da estética humana. Essa qualidade moveu a ciência para um caminho que permite ao homem tanto corrigir anomalias congênitas como reparar desconformidades com os padrões estéticos de uma determinada sociedade ou grupo biológico e cultural. Para tanto, é indispensável que uma cirurgia corretiva seja precedida de uma rigorosa análise pré-operatória baseada em informações sobre os aspectos físicos do paciente. Nos procedimentos faciais, tais dados podem ser representados por pontos de referência, que são explorados para medir desvios estéticos. Este trabalho tem como objetivo propor uma metodologia que possibilite localizar e identificar os pontos de referência necessários para se realizar avaliações estéticas da face auxiliando na definição de procedimentos cirúrgicos adequados às características de um paciente. A necessidade de separar a análise facial em duas diferentes perspectivas (frontal e perfil) gera abordagens distintas para a solução do problema. Para localizar os pontos do perfil foi elaborado um método inovador a partir de um conjunto de 30 imagens de perfil. Para a perspectiva frontal, foram realizadas modificações no método Active Shape Models (ASM) de modo a adaptá-lo ao conjunto de pontos frontais necessários para análises estéticas. O sistema desenvolvido é capaz de localizar 35 pontos faciais nas perspectivas frontal e de perfil e foi testado em mais de 800 imagens. Ele apresentou bons resultados para a perspectiva do perfil e foi capaz de melhorar o ASM clássico aplicado a localização de pontos frontais.

     

     

     

     

     

  • MATHEUS DE MENESES CAMPANHÃ SOUZA
  • Uma Abordagem para Apoiar Avaliações de Usabilidade de Sistemas Web Remotamente

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Aug 12, 2016
  • View Dissertation/Thesis   Show resume
  • Sistemas Web estão cada vez mais presentes no cotidiano das pessoas. No entanto, partes desses sistemas não são adequadas para uso, causando problemas na sua adoção e podendo assim determinar seu sucesso ou fracasso. A adequação ao uso é algo conhecido como usabilidade e, por conta da predominância de sistemas disponíveis na Internet, com potencialmente milhões de usuários, tem ganho bastante evidência nos últimos anos. Entender o nível de usabilidade de um sistema tornou-se um aspecto chave para sucesso de aplicações Web. Dentre os métodos tradicionais de avaliação de usabilidade, testes laboratoriais destacam-se por avaliar a interação de usuários com um software. Entretanto, a complexidade e os custos associados aos testes de usabilidade laboratoriais desencorajam a sua execução, uma vez que exigem uma equipe dedicada e presencial durante a avaliação. Devido à crescente necessidade de realizar avaliações de usabilidade, é proposta neste trabalho uma abordagem de apoio a essas avaliações, objetivando torná-las mais simples e menos custosas. A abordagem possui uma ferramenta de apoio, denominada UseSkill, que baseia-se na captura das interações dos usuários (logs) de forma remota e automática. A UseSkill permite a captura desses logs em contextos controlados, com a realização de tarefas pré-definidas, e em contextos de produção, onde o usuário utiliza livremente o sistema em seu dia a dia. Com base nos dados capturados em um contexto controlado, a ferramenta compara as ações realizadas por usuários “experientes” e “novatos” no sistema. Os usuários “experientes” são os que possuem fluência ao utilizar o sistema, por mais que existam problemas de usabilidade, enquanto os “novatos” não possuem muito conhecimento sobre o uso do sistema. A ferramenta calcula métricas associadas aos usos do sistema e com isso aponta possíveis problemas de usabilidade, sugeridos a partir de diferenças entre as interações de experientes e novatos. Um estudo experimental foi realizado para avaliar o comportamento dessa ideia em um contexto experimental e os resultados obtidos indicaram que ela pode ser um grande aliado na redução dos custos das avaliações de usabilidade. Embora a técnica desenvolvida tenha obtido um resultado satisfatório, os custos e complexidades logísticas envolvidas nessas avaliações em ambientes controlados dificultam a sua utilização. Objetivando amenizar tais problemas, foi proposta uma extensão da técnica para o ambiente real de produção de um software e com isso realizar avaliações de usabilidade on the fly. Essa extensão permite que sejam realizadas avaliações constantes de um sistema Web, indicando as funcionalidades mais usadas, que possuem indicadores de usabilidade mais baixos e auxiliando na identificação dos problemas. Avaliações foram realizadas com apoio da UseSkill e em seguida comparadas com avaliações baseadas em um método de inspeção de usabilidade. Os resultados obtidos apresentam indícios de que a ferramenta da abordagem proposta é uma alternativa relevante para apoiar avaliações de usabilidade de sistemas Web, gerando indicações de pontos problemáticos em funcionalidades do sistema.

  • RONIEL SOARES DE SOUSA
  • Um Protocolo de Redes Veiculares com Baixo Overhead de Comunicação para a Redução do Tempo Médio de Viagem dos Veículos

  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Jun 16, 2016
  • View Dissertation/Thesis   Show resume
  • Os aumentos dos congestionamentos de trânsito em grandes cidades causam impactos negativos em diversas áreas, como na saúde e economia. Os Sistemas Inteligentes de Transporte, que utilizam tecnologias como laços indutivos, Sistema de Posicionamento Global (Global Position System - GPS), câmeras de vídeos, sensores e comunicação sem fio, são vistos como uma das principais alternativas para diminuir estes congestionamentos (ajuste dinâmico nos temporizadores de semáforos, monitoramento de tráfego, etc). Com isso, diversas soluções para o controle de congestionamentos baseadas na comunicação entre veículos vêm sendo propostas. Uma das tecnologias utilizadas para a comunicação no ambiente veicular são as redes veiculares. As comunicações nas redes veiculares podem ocorrer de Veículo para Veículo (V2V) ou de Veículo para Infraestrutura (V2I). A instalação e manutenção de infraestruturas necessárias para cobrir completamente as áreas urbanas pode apresentar altos custos. Com isso, este trabalho apresenta um novo protocolo de baixo overhead que utiliza a comunicação V2V da tecnologia de redes veiculares. Em outras palavras, o protocolo é independente de infraestruturas externas. O objetivo do protocolo é reduzir o tempo médio de viagem dos veículos garantindo um baixo overhead de comunicação na rede veicular. Foi realizado um estudo de avaliação de desempenho com o objetivo de comparar a solução proposta com os trabalhos relacionados. O protocolo proposto apresentou o melhor desempenho em termos de overhead de sinalização. Nos cenários com maior demanda de tráfego, a quantidade de mensagens geradas pelo protocolo proposto foi aproximadamente 43% menor que o segundo melhor resultado e 80% menor que o protocolo que apresentou o pior desempenho. Por meio do mesmo estudo verificou-se a eficiência do protocolo em reduzir os congestionamentos nos cenários avaliados. Foi obtida uma redução de até 22% no tempo médio de viagem dos veículos. Palavras-chaves: congestionamento de trânsito,

  • PEDRO ALMIR MARTINS DE OLIVEIRA
  • Athena: uma Arquitetura e uma Ferramenta para Auxiliar o Desenvolvimento de Sistemas Baseados em Inteligência Computacional.

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Mar 28, 2016
  • Show resume
  • A Inteligência Computacional (IC) concentra-se no estudo de mecanismos adaptativos que possibilitam o comportamento inteligente em sistemas complexos e dinâmicos. Essa área reúne diferentes técnicas que exploram a tolerância a precisão, incerteza e verdades parciais para obter flexibilidade, robustez e soluções de baixo custo. As técnicas de IC representam um paradigma computacional emergente, pois vêm obtendo sucesso na resolução de problemas complexos nas mais diversas áreas do conhecimento, por exemplo, classificação e predição de câncer com base no perfil genético do paciente (medicina), obtenção de novos compostos poliméricos (química), identificação de novas espécies de morcegos (biologia), modelagem de séries financeiras (economia), reconhecimento de distúrbios na qualidade da energia elétrica (engenharia elétrica), projeto de circuitos VLSI (arquitetura de computadores), alocação de equipes (engenharia de software), combate a crimes cibernéticos (segurança), dentre outros. Esse conjunto de trabalhos representa apenas um retrato da ampla gama de aplicações possíveis para tais técnicas. Entretanto, apesar de todas essas possibilidades, existe uma série de dificuldades relacionadas à construção de sistemas inteligentes: o alto custo de desenvolvimento, a difícil reutilização das implementações, a implementação manual é propensa a erros, ferramentas inadequadas e com pouco suporte a construção de sistemas híbridos (duas ou mais técnicas integradas), dificuldades para realizar experimentos e para efetivar a integração com outros sistemas. O conjunto dessas dificuldades representa o problema a ser abordado neste trabalho. Nesse contexto, propõe-se a construção de uma arquitetura e uma ferramenta aptas a minimizar o impacto dessas dificuldades no desenvolvimento de Sistemas Baseados em Inteligência Computacional (SBIC). Essa proposta traz consigo a inovação na forma como esses sistemas são desenvolvidos ao unir os algoritmos (técnicas) presentes nessa linha de pesquisa (IC) com aspectos da Computação em Nuvem criando um novo conceito: Inteligência Computacional como Serviço (CIasS, do inglês Computational Intelligence as a Service). Foi realizado um mapeamento sistemático sobre ferramentas que apoiam a construção de SBIC para obter uma visão geral dessa linha de pesquisa, além de facilitar a definição dos requisitos necessários para superar, de forma holística, as dificuldades supracitadas. Com os requisitos detalhados, foram desenvolvidas uma arquitetura e uma ferramenta com os seguintes princípios: simplicidade, extensibilidade, software como serviço, alta performance e colaboração. Ambas, arquitetura e ferramenta representam juntas a principal proposta deste trabalho e foram intituladas Athena.

     

     

     

  • KALYF ABDALLA BUZAR LIMA
  • Método adaptativo com limiarização local para segmentação de veículos.

  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Mar 1, 2016
  • Show resume
  • A segmentação de veículos é um problema não linear que tem sido atacado na literatura utilizando técnicas de extração de plano de fundo. Nessas técnicas, os dados são classificados em duas classes: plano de fundo e primeiro plano. Os veículos a serem segmentados, neste caso, compõem parte do primeiro plano. Dois métodos muito utilizados para estimar o plano de fundo em ambientes não-controlados são o modelo de mistura de gaussianas de Stauffer e Grimson e o modelo não-paramétrico de Horprasert. Embora esses métodos apresentem resultados satisfatórios, no problema da segmentação de veículos, a classificação é deficiente e ocorrem erros nesse processo. O sistema proposto neste trabalho atua na redução dessas deficiências. Entre elas, os erros de classificação nas regiões internas dos veículos. Para aprimorar o processo de segmentação e reduzir as falhas, o sistema proposto conta com duas etapas: a filtragem e a estimação de limiar. Enquanto a filtragem busca corrigir e detectar os erros de classificação, a estimação de limiar realiza uma realimentação na próxima iteração da classificação. A realimentação é realizada com o objetivo de melhorar a classificação do primeiro plano, atuando unicamente nessas áreas. Para avaliar a proposta, quatro bases foram criadas. Essas bases avaliam os métodos testados considerando as mudanças e os fatores de variação ao longo do dia. Dessa forma, o sistema proposto é avaliado como uma solução prática viável para ser utilizada. Os resultados das métricas de avaliação utilizadas neste trabalho se mostram maiores no sistema proposto. Contudo, ainda mais importante que os acertos é a estabilização do comportamento da proposta sob variação dos fatores. A estabilidade de comportamento permite a definição de limiares fixos para todos os contextos, o que não é um indicado para os outros métodos testados. 

  • FELIPE MONTE MACHADO MAGALHÃES DE SOUSA
  • Uma otimização do Perceptron Multicamadas utilizando Aproximação Quadrática e Método do Ponto Proximal
  • Advisor : PAULO SERGIO MARQUES DOS SANTOS
  • Data: Feb 29, 2016
  • View Dissertation/Thesis   Show resume

  • Por conta de sua alta capacidade de generalização, predição e auto-ajuste, as redes neurais artificiais têm sido amplamente usadas em muitas áreas de pesquisa e mercado. Dentre essas redes, o perceptron multicamadas é uma das mais usadas. Baseado em modelos de otimização e no algoritmo backpropagation, o PMC pode solucionar qualquer problema que possa ser mapeado em seus sinais de entrada. Entretanto, o processo de treinamento do PMC pode convergir antes de alcançar os valores ótimos, o que resultaria em um pequeno erro em seu aprendizado. Este trabalho propõe o uso de modelos de otimização para cálculo do tamanho da taxa de aprendizagem e determinação de uma direção de descida e adaptá-los ao PMC para torná-lo mais robusto, fazendo com que o aprendizado do mesmo se aproxime mais da solução ótima, diminuindo assim o erro.

  • VILMAR PEREIRA RIBEIRO FILHO
  • Rotulação de Grupos utilizando Conjuntos Fuzzy.
  • Advisor : VINICIUS PONTE MACHADO
  • Data: Feb 29, 2016
  • Show resume
  • O problema de agrupamento (clustering) tem sido considerado como um dos problemas mais relevantes dentre aqueles existentes na área de aprendizagem de máquina não-supervisionada. Embora o desenvolvimento e aprimoramento de algoritmos que solucionam esse problema tenham sido o principal foco de muitos pesquisadores, a compreensão da definição dos grupos é tão importante quanto a formação dos grupos (clusters). Uma boa definição de um cluster representa um entendimento significativo e pode ajudar na interpretação dos dados. Frente ao problema de compreender a definição dos clusters, é descrita uma solução que utiliza a teoria de conjuntos fuzzy para identificar os elementos mais relevantes do agrupamento e modelar faixas de valores que sejam capazes de identificar cada um dos clusters, baseando-se em características únicas. Os experimentos realizados demostram que o modelo proposto é bastante factível e capazes de construir faixas de valores para a identificação dos clusters, assim como classificar novos elementos utilizando as definições fornecidas.

  • THIAGO ALLISSON RIBEIRO DA SILVA
  • Estudo e Desenvolvimento de Abordagens para a Determinação da Sequência de Ajustes no Controle da Magnitude de Tensão Aplicada a Sistemas de Transmissão de Energia Elétrica Considerando Aspectos da Infraestrutura de Comunicação de Dados

  • Advisor : RICARDO DE ANDRADE LIRA RABELO
  • Data: Feb 29, 2016
  • Show resume
  • O controle da magnitude de tensão é uma tarefa fundamental para a operação do sistema transmissão de energia elétrica, sendo aplicado à manutenção das magnitudes de tensão dentro de limites pré-determinados definidos por órgãos de regulamentação. Para execução do controle da magnitude de tensão são necessárias informações relacionadas ao estado do sistema e quais dispositivos de controle podem ser ajustados para levar o sistema à operação adequada. Neste contexto, este trabalho propõe o estudo e o desenvolvimento de abordagens, constituídas por três componentes, para execução da regulação da magnitude de tensão nos sistemas de transmissão de energia elétrica. O primeiro componente, aqui denominado Gestor de Controle, é responsável por determinar a sequência dos ajustes nas injeções de potência reativa para corrigir as tensões nas barras de carga cujas magnitudes estejam fora dos limites adequados. Tais ajustes são determinados em função de uma análise de sensibilidade baseada na matriz Jacobiana reduzida JQV das equações de balanço de potência do sistema, a qual relaciona variações da injeção de potência reativa com variações nas magnitudes de tensão nas barras do sistema. O segundo componente consiste nos Nós de Controle, responsável por receber os comandos definidos pelo Gestor de Controle e efetuar os ajustes recomendados. Por fim, o terceiro componente consiste na Infraestrutura de Comunicação, responsável pela transmissão dos dados que caracterizam o estado do sistema e os comandos a serem executados pelos Nós de Controle. Simulações computacionais nos sistemas IEEE de 14 e 57 barras são realizadas para avaliar o funcionamento das abordagens propostas considerando cenários operacionais com violações de tensão. As simulações fazem uso da ferramenta NS-3 (Network Simulator 3) de modo a representar os elementos de comunicação e obter métricas relativas ao tráfego de dados, computando a disponibilidade média das redes WiMAX (Worldwide Interoperability for Microwave Access) e DWDM (Dense Wavelength Division Multiplexing). Os resultados obtidos fornecem o despacho de potência reativa necessário para a correção das violações de tensão, os perfis de tensão nas barras e as perdas de potência ativa no sistema à medida que os ajustes são realizados e o tráfego de dados associados aos comandos de regulação.

     

     

  • JEFFERSON HENRIQUE CAMELO SOARES
  • Uma Abordagem para a Caracterização do Cancelamento Eletivo de Contratos em Planos de Saúde Privados

  • Data: Feb 29, 2016
  • Show resume
  • Uma diversidade de fatores influencia na expectativa de vida de uma pessoa, e um fator fundamental é o cuidado com a própria saúde. Porém, o cuidado com a saúde não possui um baixo custo; empresas privadas, denominadas Operadoras de Plano de Saúde(OPS), são geralmente responsáveis pelo pagamento das contas de medicamentos, exames médicos, internações e outros custos hospitalares. O funcionamento financeiro estável da OPS está diretamente relacionado à permanência dos beneficiários na empresa e, portanto, inversamente relacionado à quantidade de cancelamentos eletivos desses contratos. O cancelamento eletivo tipifica-se quando o beneficiário decide, de forma deliberada, cancelar o contrato estabelecido com a OPS, fato que pode comprometer a receita desta. O objetivo principal deste trabalho consiste em desenvolver uma abordagem para caracterizar o cancelamento eletivo de contratos em planos de saúde privados. A abordagem proposta é constituída por três fases:Pré-Processamento, Mineração de Dados e Priorização de Contratos.A fase de Pré-Processamento visa garantir uma maior qualidade às informações de contratos extraídos da base de dados de uma OPS real. A fase de Mineração de Dados explora os dados pré-processados com o intuito de descobrir novos conhecimentos, ou seja, padrões, relacionamento entre atributos e tendências ainda não conhecidas pela gestão da OPS. Essa fase de Mineração de Dados é responsável por reconhecer contratos ativos com características de contratos já cancelados, por meio de modelos de classificação; identificar que tipos de ações e comportamentos levam os beneficiários da OPS a cancelarem seus contratos, por meio da análise de árvores de decisão; e   estimar o tempo restante até o cancelamento do contrato, por meio de técnicas de regressão. Dessa forma, a gestão da OPS pode interceder de forma proativa no problema do cancelamento, ou seja, anteceder-se à possível saída de um beneficiário da empresa e promover ações que evitem tal evento. A fase de Priorização de Contratos objetiva evidenciar quais contratos apresentam um maior risco de serem cancelados, permitindo que a gestão da OPS possa avaliá-los de forma priorita´ria. Por fim, é realizado em conjunto de experimentos demosntrando passo-a-passo a execução prática da abordagem proposta, com a apresentação dos resultados e discussões.

  • ALEXANDRE CARDOSO FONTINELE
  • Um Novo Algoritmo RSA Ciente de Imperfeições de Camada Física para Redes Ópticas Elásticas

  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Feb 19, 2016
  • Show resume
  • A rede óptica elástica baseada na tecnologia OFDM (Orthogonal Frequency Division Multiplexing) é uma candidata promissora para transportar o tráfego heterogêneo no futuro das redes de alta velocidade. Isso se deve a sua capacidade de alocar de maneira mais eficiente a largura de banda da fibra óptica quando comparada a rede óptica WDM (Wavelength Division Multiplexing). Para que ocorra a transmissão dos dados em uma rede óptica é necessária à resolução do problema de roteamento e alocação de espectro para o estabelecimento de um circuito óptico. A dinâmica de alocação e liberação de

    recursos espectrais nas redes ópticas elásticas provoca a fragmentação do espectro óptico, problema que pode influenciar diretamente a eficiência dessas redes. Além disso, à medida que o sinal óptico se propaga ele sofre degradação devido às imperfeições de camada física. Assim, os algoritmos que buscam solucionar o problema de roteamento e alocação de espectro devem levar em conta a fragmentação de espectro gerada na rede e a qualidade de transmissão do circuito a ser estabelecido. Este trabalho propõe um novo algoritmo de roteamento e alocação de espectro ciente dos efeitos de camada física para redes ópticas elásticas. O objetivo do algoritmo é reduzir a probabilidade de bloqueio causada pela degradação da qualidade de transmissão proveniente de novos estabelecimentos de circuitos. A proposta é comparada com outros dois algoritmos Impairment-Aware Routing and Spectrum Assignment (IA-RSA): Modified Dijkstra Path Computation (MD-PC) e K-Shortest Path Computation (KS-PC). Resultados de simulação mostram que o algoritmo proposto apresenta um desempenho superior ao dos algoritmos MD-PC e KS-PC em termos de i) probabilidade de bloqueio de circuitos, ii) probabilidade de bloqueio de banda, iii) justiça no atendimento de diferentes pares de nós origem e destino e iv) justiça no atendimento de diferentes larguras de banda para as topologias EON e NSFNet. Em geral, em termos de probabilidade de bloqueio de circuitos o algoritmo proposto apresenta um ganho mínimo de 78,10% e 55,75% quando comparado aos algoritmos KS-PC e MD-PC, respectivamente. Em termos de probabilidade de bloqueio de banda o algoritmo proposto apresenta um ganho mínimo de 71,96% e 41,89% em relação aos algoritmos KS-PC e MD-PC, respectivamente. E em termos de justiça o algoritmo proposto apresenta um desempenho superior quando comparado aos algoritmos KS-PC e MD-PC.

     

     

2015
Description
  • WANDERSON ANTONIO DE SOUSA SILVA
  • Sistema de Planejamento de Movimentos para robôs com rodas usando Sistema Fuzzy do Tipo-2 Intervalar.

  • Advisor : ANDRE MACEDO SANTANA
  • Data: Aug 31, 2015
  • Show resume
  • A vida do ser humano tem se tornado cada vez mais confortável com os principais avanços da robótica. Estes avanços contribuíram com o aumento da qualidade de vida e propostas de soluções para diversas tarefas do dia-a-dia sejam elas domésticas, industriais, militares e segurança pública. Os primeiro robôs eram fixos e constituídos basicamente de braços manipuladores. Os manipuladores movem-se com grande velocidade e precisão para o desenvolvimento de tarefas repetitivas, tais como a soldagem e a pintura. Porém, estes robôs comerciais sofrem de uma desvantagem fundamental: a perda da mobilidade. Neste contexto, surge o robô autônomo móvel que tem a habilidade de mover-se em seu ambiente e desenvolver inúmeras tarefas. Um robô móvel deve estar apto às mudanças do seu ambiente, aprender com suas experiências e mudanças de comportamento de forma apropriada e construir uma representação interna de seu ambiente para que possa ser usado em processos de navegação. No entanto, um problema comum em navegação autônoma é a necessidade de lidar com uma grande quantidade de incerteza provinda dos sensores do robô. Muitas destas fontes de incerteza influenciam o desempenho do sistema de navegação autônoma. Para lidar com informação aproximada, incerta ou incompleta, a lógica fuzzy, que é inspirada na capacidade de raciocinar uma informação percebida pelo ser humano, tornou-se uma abordagem satisfatório e comum entre os pesquisadores da área de robótica autônoma. Uma solução tipicamente utilizada em navegação autônoma são os Sistemas de Inferência Fuzzy do Tipo-1. No entanto, estes sistemas possuem limitada capacidade de representar as incertezas em suas funções de pertinência. Alternativamente, Sistemas de Inferência Fuzzy do Tipo-2 possibilitam modelar essas incertezas com melhor desempenho. O principal objetivo deste trabalho é desenvolver um sistema de planejamento de movimento para robôs de pequeno porte, com rodas, em ambientes indoors incertos, e desconhecidos, usando um sistema de inferência fuzzy do tipo-2 intervalar para um mapeamento qualitativo. Para o desenvolvimento do sistema, são realizadas simulações em que o robô deverá navegar em cenários complexos, com a finalidade de verificar a robustez e eficiência do sistema. Para alcançar esse objetivo, foram realizados: uma modelagem do erro do sonar do robô, uma comparação com os sistemas fuzzy tipo-1 e tipo-2 intervalar nos cenários propostos, a implementação de uma abordagem fuzzy tipo-2 intervalar para navegação segura, implementação de uma estratégia de exploração em ambientes desconhecidos e propor uma abordagem qualitativa para o mapeamento do robô. Os resultados encontrados nos três experimentos propostos permitem deduzir que esta abordagem ofereceu uma solução satisfatória para navegação de robôs autônomos.

  • ROGÉRIO FIGUEREDO DE SOUSA
  • Abordagem TOP X para Inferir os Comentários mais Importantes sobre Produtos e Serviços

  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Aug 13, 2015
  • Show resume
  • No contexto do constante crescimento da Web, diversos serviços foram virtualizados, incluindo o surgimento do comércio eletrônico (e-commerce). Tanto tradicionalmente quanto através de e-commerce, as pessoas necessitam comparar produtos e serviços para nortear suas decisões por meio da análise das características desejadas. A mudança que a Web ocasionou foi a exposição de suas opiniões em sites de compra e venda, fóruns na Web, redes sociais ou ainda grupos de discussão, permitindo sua visualização por qualquer pessoa que necessite. Porém, com o grande crescimento da Web, a quantidade de dados também aumentou, impossibilitando a coleta manual dessas opiniões. Logo, a busca automática de opiniões, promoveu o crescimento da área de Análise de Sentimentos, a qual é responsável por criar técnicas automáticas para coletar, analisar e sumarizar as opiniões encontradas em diversos locais na Web. Este trabalho apresenta a abordagem TOP(X) para estimar a importância de comentários disponibilizados por clientes na Web, por meio do uso de um sistema Fuzzy. O sistema Fuzzy possui três variáveis de entrada: reputação do autor, número de tuplas <característica, palavra opinativa> e a porcentagem de palavras escritas corretamente; e uma variável de saída: grau de importância do comentário. Realizou-se também um experimento para comparar os resultados de um método de orientação semântica executado sobre todos os comentários e sobre uma seleção dos melhores comentários de um corpus. O experimento foi conduzido com 1576 comentários sobre smartphones (982 positivos e 594 negativos) e nossa abordagem melhorou os resultados do método de orientação semântica em aproximadamente 10% na medida F-measure para comentários positivos e 20% para comentários negativos.

     

  • ALEXANDRE TOLSTENKO NOGUEIRA
  • Um Estudo sobre a Formação de Equipes em Jogos Virtuais

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Jul 23, 2015
  • Show resume
  • Com a popularização da internet muitas pessoas trabalham ou buscam entretenimento em meios virtuais. Levando em consideração esta tendência, a formação de equipes para a execução de um trabalho ou em um jogo de equipes passou a ter grande importância. Neste sentido, o presente estudo objetivou criar e analisar uma abordagem para formação de equipes que melhore o engajamento de usuários em jogos eletrônicos em grupo, diminuindo a taxa de abandono, por meio da formação de equipes equilibradas, combinadas automaticamente pelo sistema de formação de partidas (match making). Tomou-se o Dota 2 como referência prática de jogo real, pois possui uma ampla variedade de heróis, que juntamente com a forma de jogar de cada usuário, torna cada batalha singular. Abordou-se a formação de equipes em um dos gêneros de jogos mais famosos, conhecido como Multiplayer Online Battle Arena (MOBA), de ação e estratégia em tempo real, onde equipes se enfrentam em um campo de batalha. Para investigar a formação e balanceamento das equipes, foram analisadas cerca de 11 milhões de partidas para classificar o perfil do jogador. Foram encontrados 12 agrupamentos de desempenho de usuário do DOTA 2 e, em seguida identificados os perfis de comportamento comuns de cada cluster, usados na criação de uma abordagem voltada para a eleição de jogadores na formação de partidas. Comprovou-se que quanto maior o grau de desbalanceamento de classes entre os jogadores das equipes, menor a duração da partida e a equipe vencedora sobrepuja a outra com uma diferença maior de pontos. A metodologia para detectar desbalanceamento pode ser aplicada na formação de equipes em jogos virtuais e proporcionar melhorias no grau de engajamento.

  • DANILO BATISTA MEDEIROS
  • Introdução de Gamificação no Desenvolvimento de Software

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Jul 23, 2015
  • View Dissertation/Thesis   Show resume
  •  

    O desenvolvimento de software é uma atividade em muitos momentos excitante e desafiadora, mas em outros momentos pode apresentar-se como uma atividade enfadonha. Ao mesmo tempo, a introdução de elementos de jogos em atividades como ensino de engenharia de software e websites evidencia que atividades do mundo real podem incorporar elementos de game design tornando-as mais interessantes e divertidas. Neste trabalho propomos a introdução de elementos da teoria de jogos no desenvolvimento de software, especialmente no processo Scrum, incluindo elementos para estimular a aderência às prescrições do processo, além de aumentar a produtividade. São apresentadas as mecânicas idealizadas, avaliação dessas mecânicas em uma equipe real, além de resultados e dificuldades a partir de um estudo de caso realizado em uma equipe de desenvolvimento de uma instituição privada.

  • NATHAN FRANKLIN SARAIVA DE SOUSA
  • Uma Arquitetura Programável para Escolha do Paradigma de Comutação em Redes Ópticas Híbridas OCS/OBS

  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Jul 8, 2015
  • View Dissertation/Thesis   Show resume
  • O significativo crescimento da Internet e o surgimento de novas aplicações têm contribuído para um aumento da demanda de largura de banda. Em virtude disto, as principais redes de transporte do mundo utilizam redes ópticas, especialmente por causa do grande potencial de transmissão da fibra óptica. Mais recentemente, a literatura vem apontando o uso de redes ópticas com comutação híbrida como uma alternativa para melhor adaptar os diferentes tipos de comutação ao tráfego heterogêneo das redes de transporte. Em uma rede óptica híbrida dois ou mais paradigmas de comutação podem ser utilizados ao mesmo tempo para transportar diferentes tipos de tráfego. Este trabalho de mestrado propõe uma arquitetura para redes ópticas híbridas que utilizam dois paradigmas de comutação: Comutação de Circuitos Ópticos (Optical Circuit Switching - OCS) e a Comutação de Rajadas Ópticas (Optical Burst Switching - OBS). A arquitetura proposta viabiliza a definição de regras de classificação de fluxos de tráfego das redes de acesso IP. Além disso, sinaliza para rede óptica híbrida o paradigma mais apropriado, OCS ou OBS, a ser utilizado. A solução proposta utiliza a flexibilidade das redes definidas por software, mais especificamente o protocolo OpenFlow, para permitir a implementação de diferentes regras de classificação. O processo de sinalização é validado através de experimentos usando o OpenFlow. É apresentado um estudo de avaliação de desempenho da arquitetura utilizando o simulador TONetS. As métricas utilizadas para o processo de avaliação foram a utilização efetiva da rede e o percentual de entrega de dados.

  • JOSÉ VICTOR VASCONCELOS SOBRAL
  • Um Framework para Melhorar o Desempenho de Aplicações de Internet das Coisas Baseadas em RSSF e RFID

  • Data: Jun 8, 2015
  • View Dissertation/Thesis   Show resume
  •  

    A Internet das Coisas (IoT) é um paradigma que promove a interligação de diferentes objetos por meio da utilização de diversas tecnologias. Para que as aplicações de IoT possam realizar suas tarefas com eficiência, é necessário que a estrutura de rede utilizada disponha de alguns recursos chaves, tais como: capacidade de rastreamento e identificação única, eficiência energética e ubiquidade. No entanto, dificilmente uma única tecnologia é capaz de proporcionar tais recursos. A integração das redes de sensores sem fio (RSSF) e a identificação por rádio frequência (RFID) surge como uma abordagem importante para o desenvolvimento das aplicações de IoT. Contudo, ao integrar estas tecnologias novos desafios tendem a surgir. Assim, este trabalho propõe um framework que tem como objetivo prover os recursos requeridos pelas aplicações de IoT com mais eficiência observando os problemas oriundos da integração. Os resultados obtidos por meio de simulação mostram que, para os cenários avaliados, a utilização do framework proposto é capaz de aumentar o desempenho do processo de identificação das etiquetas RFID, reduzir as taxas de perda de pacotes, reduzir o consumo de energia dos nós e melhorar o balanceamento de carga da rede. Esses benefícios proporcionam maior eficiência energética e qualidade de serviço para as aplicações de IoT.

     

     

     

  • BRUNO VICENTE ALVES DE LIMA
  • Método semissupervisionado de rotulação e classificação utilizando agrupamento por sementes e classificadores

  • Advisor : VINICIUS PONTE MACHADO
  • Data: Mar 27, 2015
  • View Dissertation/Thesis   Show resume
  • Na tarefa de classificação utilizando algoritmos de aprendizado de máquina, considera-se a existência de uma base de dados chamada conjunto de treinamento. Esse conjunto possui exemplos que são rotulados(pré-classificados) e utilizados no treinamento do classificador. Deve ter um total de exemplos significativo e equilibrado para que, após o treinamento, o classificador tenha um desempenho satisfatório. Porém, na maioria dos casos reais, obter esse conjunto de treinamento com a quantidade de exemplos suficientes para induzir um classificador no treinamento pode ser oneroso, pois é necessário que seja realizada uma rotulação dos dados por um especialista no problema em questão. Exemplos não-rotulados são mais fáceis de serem coletados em comparação aos que possuem rótulos. A literatura mostra o interesse da comunidade científica em uma nova abordagem de aprendizado chamada de semissupervisionada. Este tipo de aprendizado trabalha em um cenário em que existe um conjunto de dados rotulados, insuficiente para treinar um classificador, juntamente com um outro conjunto com dados não-rotulados, também, disponível no treinamento. O objetivo do trabalho é propor um método que visa rotular dados a partir de um pequeno conjunto rotulado. Esse método combina um classificador e um agrupador para realizar a tarefa de classificação de forma simples em relação à outros métodos encontrados na literatura. Foram realizados experimentos utilizando 5 bases de dados e os resultados comparados com os algoritmos co-training e k-meanski, que são outros algoritmos semissupervisionados que possui o mesmo propósito.

  • IALLEN GABIO DE SOUSA SANTOS
  • Alocação de Recursos Para o Estabelecimento de Circuitos em Redes Ópticas WDM e OFDM

  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Mar 26, 2015
  • View Dissertation/Thesis   Show resume
  • O aumento da demanda de tráfego e o surgimento de novas aplicações com exigência cada vez maior de Quality of Service (QoS) requerem uma capacidade cada vez maior por parte das redes de transporte. A utilização de fibras ópticas como meio físico para a transmissão de dados permite altas taxas de transmissão e imunidade a interferências eletromagnéticas. Desta forma as redes ópticas vêm sendo estudadas como principal alternativa para compor os backbones das redes de transporte. O estabelecimento de um circuito óptico exige a reserva prévia de recursos da rede. Uma requisição de circuito é rejeitada na indisponibilidade de recursos para o seu estabelecimento, caracterizando o bloqueio do circuito. Os algoritmos de alocação de recursos em redes ópticas devem escolher um conjunto de recursos para cada requisição de circuito visando a minimização dos bloqueios de circuitos ópticos. Os recursos necessários para o estabelecimento de um circuito óptico dependem do tipo de rede óptica. Nesta dissertação de mestrado são abordadas as redes ópticas Wavelength Division Multiplexing (WDM) e as redes ópticas Ortogonal Frequency Division Multiplexing (OFDM). No âmbito deste trabalho de mestrado dois algoritmos de alocação de recursos foram propostos. O primeiro foi o algoritmo de roteamento Melhor entre as Menores Rotas com Decisão por Similaridade (MMRDS). A segunda proposta foi um algoritmo para alocação de regeneradores em redes ópticas WDM translúcidas, chamado Alocação Preventiva de Regeneradores (APR). Ambos os algoritmos apresentaram melhor desempenho quando comparados, via simulação, com outras propostas da literatura. Por último esta dissertação apresenta um estudo de avaliação de desempenho de algoritmos de alocação de recursos para redes de circuitos ópticos OFDM.  Para dar suporte à avaliação dos algoritmos de alocação de recursos para o estabelecimento de circuitos ópticos OFDM foi desenvolvida a ferramenta SLICE Network Simulator (SNetS).

2014
Description
  • RÔNALDY SOUSA OLIVEIRA
  • Aplicação de Algoritmos de Otimização na Detecção de Contato entre Superquádricas Convexas

  • Advisor : PAULO SERGIO MARQUES DOS SANTOS
  • Data: Aug 18, 2014
  • View Dissertation/Thesis   Show resume
  • Apresentamos um algoritmo usado para detectar o contato e encontrar a distância entre dois objetos convexos. Esta distância é definida como o comprimento do caminho mais próximo ligando um objeto ao outro. O problema é formulado como um problema de otimização convexo, com restrições não lineares, que é resolvido por um método de penalidades. Relatamos experiências numéricas que ilustram o comportamento do método proposto.

  • FLÁVIO HENRIQUE DUARTE DE ARAÚJO
  • Descoberta do Conhecimento em Base de Dados para o Aprendizado de Regulação Médica/Odontológica em Operadora de Plano de Saúde


  • Advisor : ANDRE MACEDO SANTANA
  • Data: May 16, 2014
  • View Dissertation/Thesis   Show resume
  • O Brasil possui um dos maiores mercados de saúde suplementar do mundo. Entretanto, verifica-se que muitos procedimentos médicos estão sendo realizados sem necessidade, gerando custos desnecessários às empresas e fazendo com que o serviço oferecido custe mais caro. A regulação é um mecanismo de controle utilizado pelas operadoras de plano de saúde para minimizar o desperdício de recursos através do bloqueio dos procedimentos que foram indevidamente solicitados. Porém, para um processo de regulação eficiente é necessário a presença de um médico regulador 24 horas por dia ocasionando um aumento na despesa operacional da prestadora do serviço. Neste contexto, o presente trabalho apresenta um processo de Descoberta de Conhecimento em Base de Dados para o aprendizado automático da regulação médica/odontológica a partir dos dados odontológicos de uma operadora de plano de saúde sem fins lucrativos contendo registros coletados desde o ano de 2007. Na etapa de pré-processamento foram utilizados técnicas para mitigar os seguintes problemas: seleção de atributos relevantes, balanceamento de classes e valores desconhecidos. Na etapa de mineração foram testados três classificadores dos paradigmas simbólico, estatístico, baseado em exemplos e conexionista. Além disso, técnicas de combinação de classificadores foram utilizadas e o resultado final da classificação possui taxa de acerto superior a 95%.

  • RAFAEL TORRES ANCHIÊTA
  • Uso de PLN para extrair elementos de interface de usuário a partir de descrições de requisitos de software

  • Advisor : RAIMUNDO SANTOS MOURA
  • Data: Mar 27, 2014
  • View Dissertation/Thesis   Show resume
  • Diversos artefatos precisam ser criados durante o processo de desenvolvimento de software, tais como: diagramas, documentos do projeto, modelos UML, protótipos de interface, código fonte, casos de testes, entre outros. Criar esses artefatos demanda muito tempo e recursos. Nesta dissertação, apresenta-se a ferramenta EasyGUI Prototyping que contribui para a geração de protótipos de interface de usuário, diagramas de classe e diagramas de casos de uso a partir de descrições textuais de casos de uso utilizando técnicas de processamento de linguagem natural. A ferramenta implementa dois métodos que viabilizam a identificação dos elementos dos diagramas e dos protótipos de interface chamados de padrões linguísticos e estrutura frasal. Os métodos foram avaliados através do uso de métricas da área de recuperação de informação. Posteriormente, um estudo experimental foi realizado em ambiente acadêmico e ambiente industrial com o intuito de avaliar se a ferramenta desenvolvida contribui para reduzir o esforço na criação de protótipos e ainda mantém ou melhora a qualidade compatível com a geração manual.

  • LUCAS ARAÚJO LOPES
  • Rotulação Automática de Grupos através de Aprendizagem de Máquina Supervisionada

  • Advisor : VINICIUS PONTE MACHADO
  • Data: Mar 26, 2014
  • View Dissertation/Thesis   Show resume
  • O problema de agrupamento (clustering) tem sido alvo de muitos pesquisadores sendo considerado como um dos problemas mais relevantes dentre aqueles existentes na área de pesquisa de aprendizagem não-supervisionada (subárea de Aprendizagem de Máquina). Embora o desenvolvimento e aprimoramento de algoritmos que solucionam esse problema tenha sido o principal foco de muitos pesquisadores o objetivo inicial se manteve obscuro: a compreensão dos grupos formados. Tão importante quanto a identificação dos grupos (clusters) é a compreensão e definição dos mesmos. Uma boa definição de um cluster representa um entendimento significativo do mesmo e pode ajudar o especialista ao estudar ou interpretar dados. Frente ao problema de compreender clusters – isto é, de encontrar uma definição ou em outras palavras, um rótulo – este trabalho apresenta uma definição para esse problema, denominado problema de rotulação, além de uma solução baseada em técnicas com aprendizagem de supervisionada, não-supervisionada e um modelo de discretização. Dessa forma, o problema é tratado desde sua concepção: o agrupamento de dados. Para isso, um método com aprendizagem não-supervisionada é aplicado ao problema de clustering e então um algoritmo com aprendizagem supervisionada irá detectar quais atributos são relevantes para definir um dado cluster. Adicionalmente, algumas estratégias são utilizadas para formar uma metodologia que apresenta em sua totalidade um rótulo (baseado em atributos e valores) para cada grupo fornecido. Finalmente, os resultados dessa metodologia são aplicados e analisados em quatro bases de dados distintas.

  • HILDEBRANDO ALVES DE ARAÚJO SEGUNDO
  • Pré-Busca de Dados em Arquiteturas Multicore com Memória Local de Rascunho

  • Advisor : IVAN SARAIVA SILVA
  • Data: Mar 25, 2014
  • View Dissertation/Thesis   Show resume
  • As arquiteturas de microprocessadores evoluíram significativamente desde seu surgimento em 1971. O Intel 4004, que foi o primeiro microprocessador comercializado, trabalhava com registradores de 4 bits, tinha apenas 46 instruções e sua integração requereu cerca de 2300 transistores, ocupando um área de 12 mm², com uma tecnologia de 10um. Atualmente, quando vivemos a era dos microprocessadores multicore, temos, por exemplo, o microprocessador Intel Xehon Phi, que integra 10 núcleos de processamento, requer aproximadamente 5 bilhões de transistores para a sua integração, usando uma tecnologia de 22 nm.

     Esta evolução, que se deu como resultado da constante busca pelo aumento de desempenho, teve dois “atores” principais. A evolução dos processos tecnológicos de integração, por um lado, implicaram em redução de área e aumento da freqüência  de execução.  Evoluções arquiteturais, por outro lado, contribuíram significativamente para a melhoria e aceleração do processamento. Entre as evoluções arquiteturais pode-se citar como estando entre as mais importantes, a utilização de hierarquias de memória, que permitiu reduzir o tempo de acesso a instruções e dados e o modelo de execução em pipeline, que permitiu aumentar a vazão no que se refere a execução de instruções.

     Nos últimos anos, devido a integração de múltiplos núcleos de processamento no mesmo chip (arquitetura multicore, many-core ou Multiprocessor Systems on Chip), observou-se que o problema conhecido como Memory Wall migrou da interface entre o microprocessador e a memória externa, para o interior dos chip, situando-se entre a interface dos núcleos e a memória local. Uma alternativa para minimizar ou resolver este problema está na redefinição das hierarquias de memória das arquiteturas multicore utilizando memória local de rascunho. As memórias locais de rascunho apresentam vantagens quando comparadas as memórias cahce devido a: (1) menor consumo de energia; (b) flexibilidade quanto ao gerenciamento.

     Nesta dissertação propomos a utilização do método de pré-busca de dados como uma técnica de gerenciamento da memória local de rascunho de arquiteturas multicore. Para validação da proposta um bloco de hardware será desenvolvido com o auxílio da linguagem VHDL, uma vez prototipado o bloco de hardware será validado por simulação e prototipagem em placas de desenvolvimento dotadas de circuitos reconfiguráveis (FPGA – Field Programmable Gate Array).

  • ROMUERE RODRIGUES VELOSO E SILVA
  • Detecção Automática do Uso de Capacete por Motociclistas em Vias Públicas

  • Advisor : KELSON ROMULO TEIXEIRA AIRES
  • Data: Mar 19, 2014
  • View Dissertation/Thesis   Show resume
  • O número de acidentes envolvendo motocicletas tem aumentado rapidamente ao longo dos anos em muitos paises. Esse tipo de veiculo está se tornando cada vez mais popular, devido a vários fatores econômicos e sociais. O capacete é o principal equipamento de segurança dos motociclistas. Apesar disso, muitos motociclistas não o utilizam ou o utilizam de forma incorreta. A principal função do capacete é proteger a cabeça do motociclista em caso de acidente. Em casos de acidentes, o não uso do capacete pode pode ser fatal. Esse trabalho tem como objetivos explicar e esclarecer: um método para detecção e classificação de motocicletas em vias públicas; um sistema para detecção de motociclistas sem capacete. Para isso, utilizou-se, para extração de atributos, a Transformada Wavelet, e os descritores Histograms of Oriented Gradients, Local Binary Pattern, Speeded Up Robust Features e Transformada Circular de Hough. Foram utilizados também os classificadores Máquina de Vetor de Suporte, Perceptron de Múltiplas Camadas, Redes de Função de Base Radial, Naive Bayes, Random Forest, K-vizinhos mais próximos além de Sistema de Múltiplos Classificadores. Foram utilizadas imagens de tráfego capturadas por câmeras em vias públicas. O melhor resultado obtido na classificação de veiculos foi uma taxa de acerto igual a 97, 78% utilizando a Transformada Wavelet e classificador Random Forest. A fase de detecção do uso do capacete de uma acurácia máxima de 91, 37%, que foi obtida utilizando o descritor Histograms of Oriented Gradients e o classificador Perceptron de Múltiplas Camadas.

  • IGO COUTINHO MOURA
  • Avaliação de Desempenho de Redes Ópticas Híbridas OCS/OBS

  • Advisor : ANDRE CASTELO BRANCO SOARES
  • Data: Feb 24, 2014
  • View Dissertation/Thesis   Show resume
  • Atualmente as redes ópticas são apontadas como a principal tecnologia para compor a atual infraestrutura
    das redes de transportes e atender a crescente demanda por banda passante em seu
    backbone. Uma rede óptica transparente é caracterizada pela inexistência do processamento
    eletrônico no plano de dados. Existem diferentes alternativas que viabilizam a comunicação
    em redes ópticas transparentes. Uma delas consiste em combinar os paradigmas Optical Circuit
    Switching (OCS) e Optical Burst Switching (OBS) em uma única rede. Essa arquitetura
    é denominada de rede óptica com comutação híbrida OCS/OBS. Essa dissertação de mestrado
    apresenta um estudo de avaliação de desempenho de redes ópticas transparentes com comutação
    híbrida OCS/OBS. Para viabilizar o estudo foi desenvolvida uma ferramenta
    de simulação de redes ópticas com comutação híbrida, denominada Hybrid Optical Network
    Simulator (HOSNetS).

  • JONATHAS JIVAGO DE ALMEIDA CRUZ
  • Uma abordagem Hibrida para Geração de Portfolios em Linhas de Produto de Software

  • Advisor : PEDRO DE ALCANTARA DOS SANTOS NETO
  • Data: Feb 14, 2014
  • View Dissertation/Thesis   Show resume
  • : Linha de Produto de Software (LPS) é uma abordagem da Engenharia de Software que ganhou ênfase na indústria de software nos últimos anos por permitir o desenvolvimento de sistemas de software por meio da reutilização sistemática de artefatos. Um dos problemas ao adotar essa abordagem está relacionado ao gerenciamento dos produtos da linha. Em LPS, o gerenciamento dos produtos emprega técnicas de escopo para definir o que está dentro e o que está fora da linha. Um dos três tipos de escopo de uma linha é o Escopo de Portfolio de Produtos (EPP). O EPP tem como objetivo determinar quais os produtos devem ser desenvolvidos e quais características (features) eles devem prover. Determinar quais produtos devem pertencer ao escopo envolve aspectos econômicos e de mercado. Portanto, definir um escopo de produtos que atenda aspectos como o custo e satisfação dos usuários é um problema NP-Difícil, uma vez que envolve a combinação de diferentes aspectos que pode levar a uma explosão de combinações. Este trabalho tem como objetivo propor uma abordagem hibrida que se alinha à emergente área de conhecimento denominada Engenharia de Software Baseada em Buscas, por empregar técnicas de Inteligência Computacional para a resolução do problema. Essa abordagem, combina Sistemas Fuzzy, a metaheurística NSGA-II e Software Quality Function Deployment (SQFD), para a geração de portfolios de produtos baseada no custo dos ativos da LPS e na relevância das características para os usuários finais. São apresentadas três aplicações no intuito de validar as ideias propostas, uma primeira realizada em uma LPS pequena, uma segunda com uma LPS maior, em termos de número de linhas, e mais representativa, por ser amplamente utilizada em pesquisas no mundo, e uma terceira com uma LPS fictícia para avaliar a escalabilidade do método.

SIGAA | Superintendência de Tecnologia da Informação - STI/UFPI - (86) 3215-1124 | © UFRN | sigjb02.ufpi.br.instancia1 22/07/2019 19:48