Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFAL

2024
Dissertações
1
  • TIAGO PAULINO SANTOS
  • Representação, visualização e análise de grandes volumes de dados urbanos espaço-temporais de segurança pública

  • Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
  • MEMBROS DA BANCA :
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • RIAN GABRIEL SANTOS PINHEIRO
  • LUIS GUSTAVO NONATO
  • Data: 25/01/2024

  • Mostrar Resumo
  • As transformações tecnológicas advindas da transformação digital de órgãos públicos e da internet das coisas têm possibilitado a geração e coleta de grandes volumes de dados, que podem ser posteriormente utilizados em análises precisas. Para a segurança pública, a aplicação de novas tecnologias nas atividades de análise criminal, patrulhamento e repressão ao crime trazem inúmeras possibilidades também, como conseguir visualizar de maneira profunda o desempenho das ações da corporação, monitorar a atividade criminosa, compreender padrões e buscar alternativas para implementar melhores políticas de segurança. Big Data também já não é uma realidade distante das corporações de segurança pública. Dispositivos de rastreamento, câmeras de vigilância, sistemas de monitoramento, sistemas de atendimento e muitas outras fontes de informação já provêm um grande volume de dados que precisam ser devidamente tratados para que seja possível obtenção de conhecimento relevante. Nos últimos anos, muitos trabalhos científicos têm proposto o uso de algoritmos de Aprendizado de Máquina para reconhecer padrões espaciais e temporais de crimes. Nesse contexto, propomos neste trabalho uma ferramenta de análise visual de dados urbanos espaço-temporais, e um novo algoritmo para detecção de manchas criminais. Estas soluções foram validadas usando bases de dados da Polícia Militar do Estado de Alagoas (PMAL) em estudos de caso onde o objetivo era analisar dados espaço-temporais de crimes e de patrulhamento. Os resultados desta pesquisa terão importância não só do ponto de visto científico, mas também poderão ser aproveitados pela PMAL para otimizar seus processos de tomada de decisão.


  • Mostrar Abstract
  • Technological transformations arising from the digital transformation of public bodies and the internet of things have enabled the generation and collection of large volumes of data, which can later be used in precise analyses. For public security, the application of new technologies in criminal analysis, patrolling and crime repression activities also bring countless possibilities, such as being able to visualize in depth the performance of the corporation's actions, monitor criminal activity, understand patterns and seek alternatives to implement better security policies. Big Data is also no longer a distant reality for public security corporations. Tracking devices, surveillance cameras, monitoring systems, customer service systems and many other sources of information already provide a large volume of data that needs to be properly processed in order to obtain relevant knowledge. In recent years, many scientific works have proposed the use of Machine Learning algorithms to recognize spatial and temporal patterns of crimes. In this context, we propose in this work a visual analysis tool for spatio-temporal urban data, and a new algorithm for detecting crime spots. These solutions were validated using databases from the Military Police of the State of Alagoas (PMAL) in case studies where the objective was to analyze spatio-temporal data on crimes and patrolling. The results of this research will be important not only from a scientific point of view, but can also be used by PMAL to optimize its decision-making processes.

2
  • MATHEUS MACHADO VIEIRA
  • Uma meta-heurística para o Problema da Mochila com Penalidades

  • Orientador : RIAN GABRIEL SANTOS PINHEIRO
  • MEMBROS DA BANCA :
  • BRUNO COSTA E SILVA NOGUEIRA
  • Dimas Cassimiro do Nascimento Filho
  • ERICK DE ANDRADE BARBOZA
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 31/01/2024

  • Mostrar Resumo
  • O problema da mochila está entre um dos problemas combinatórios mais conhecidos.
    Seu potencial de aplicação e as inúmeras variações que existem fazem dele um bom modelo
    para diversos problemas práticos da vida real. Mais especificamente, este trabalho aborda
    uma variante do problema, o Problema da Mochila com Penalidades (PMP, ou, em inglês,
    KPF). Nesta variante, é fornecido um conjunto de itens e um grafo de conflitos, e o
    objetivo é identificar uma coleção de itens que respeite a capacidade da mochila enquanto
    maximiza o valor total dos itens menos as penalidades pelos itens conflitantes. O PMP
    tem tido algum engajamento tanto por sua proximidade com outros problemas famosos,
    como o do conjunto independente de peso máximo, e suas aplicações. Alguns exemplos
    compreendem desde a organização da força de trabalho em chão de fábrica até problemas
    de decisão em investimentos. Este trabalho apresenta um novo método para o problema
    utilizando-se de ferramentas já bem estabelecidas, baseado na hibridização de Iterated
    Local Search (ILS), Variable Neighborhood Descent (VND), e elementos de Tabu Search.
    Nosso método leva em consideração quatro estruturas de vizinhança, introduzidas com
    estruturas de dados eficientes para explorá-las. Resultados experimentais demonstram
    que a abordagem proposta supera os algoritmos de ponta na literatura. Em particular, o
    método proposto fornece soluções superiores em tempos de computação significativamente
    mais curtos em todas as instâncias de referência. Também foi incluída uma análise de como
    as estruturas de dados propostas influenciaram tanto a qualidade das soluções quanto o
    tempo de execução do método.


  • Mostrar Abstract
  • The knapsack problem is among one the most well-known and studied optimization problems. Its potential applications make it a good model for a real-life problem. In this work, the Knapsack Problem with Forfeits will be addressed. In this variant, pairs of conflicting items in the solution imply a penalty. Given a set of items and a conflict graph, the objective is to find a collection of items that respect the knapsack's capacity and maximizes the total value of the items minus the penalties. This problem can be applied from the organization of the workforce on the shop floor to investment decision problems. This work proposes the construction of a new method for the problem using well-established tools, the ILS meta-heuristic, and the VND local search heuristic, and there is also the possibility of verifying other heuristics and meta-heuristics. Preliminary results have already been obtained, showing that the new method surpasses others approaches. It can be expected that this work offers an indication of the path that can be taken to refine the resolution of the problem, presenting analyzes and comparisons between methods applied to the problem.

     

     



     

3
  • RENDRIKSON DE OLIVEIRA SOARES
  • Uma Arquitetura Computacional Baseada em Tecnologia Blockchain para Habilitar a Transparência dos Serviços de Audiência e Pagamentos em Plataformas de Streaming

  • Orientador : ANDRE MAGNO COSTA DE ARAUJO
  • MEMBROS DA BANCA :
  • ANDRE MAGNO COSTA DE ARAUJO
  • FABIO JOSE COUTINHO DA SILVA
  • PAULO CAETANO DA SILVA
  • Data: 26/02/2024

  • Mostrar Resumo
  • A tecnologia Blockchain possibilita o registro seguro e o compartilhamento de informações sem uma autoridade central, usando criptografia em uma rede distribuída de computadores. Amplamente utilizada na indústria de software, oferece recursos de autenticidade e segurança em transações online. Plataformas de streaming, como Youtube, Spotify, dentre outras, são exemplos de sistemas que lidam com a transmissão de dados de diferentes tipos, como vídeos, músicas e podcasts, e que precisam oferecer recursos de transparência, rastreabilidade e segurança na manipulação desses dados em sistemas de software. No campo de pesquisa da indústria do entretenimento digital, identificou-se no estado da arte uma lacuna de pesquisa no que diz respeito à aplicação da tecnologia Blockchain para habilitar a transparência nos serviços de audiência e pagamentos em plataformas de streaming. Este trabalho propõe a inserção de uma camada Blockchain à infraestrutura operacional existente em plataformas de streaming disponíveis no mercado. Essa camada é encarregada de gerenciar informações individuais dos conteúdos, servindo como meio de verificação e auditoria das transações associadas a cada mídia digital. Além disso, ela permite a transferência de recursos monetários por meio da rede Blockchain. Para atingir o objetivo proposto, elaborou-se uma arquitetura de software contendo os componentes, interfaces, relacionamentos e restrições dos requisitos funcionais que representam esse domínio de aplicação. Nesse processo, adotou-se o modelo de especificação de arquitetura denominado C4 model, escolhido devido à sua característica de documentação compreensível tanto para um público técnico quanto não técnico. Após a especificação da arquitetura, foram implementados os componentes fundamentais para os testes e operação da solução proposta nesta pesquisa. Dessa maneira, desenvolveu-se um middleware encarregado de capturar e gerenciar os mecanismos de audiência de cada conteúdo de maneira individual. Isso ocorre por meio de um serviço de geração automática de contratos inteligentes que é executado quando os conteúdos são disponibilizados e consumidos nas plataformas de streaming. Posteriormente, desenvolveu-se uma aplicação web que simula as operações de uma plataforma de streaming para integrar ao middleware desenvolvido, permitindo a realização de testes, tanto financeiros, quanto funcionais. Os testes foram conduzidos em três redes Blockchain distintas, revelando a viabilidade técnica da solução proposta. Isso foi alcançado por meio da interceptação e do gerenciamento automático das informações de audiência e pagamentos utilizando contratos inteligentes. Além disso, a viabilidade financeira da implementação foi analisada, resultando em um custo médio de US$ 0,000518 em uma das redes Blockchain. Adicionalmente, realizou-se uma pesquisa envolvendo criadores de conteúdo com canais monetizados e desenvolvedores de software especializados em Blockchain. O objetivo da consulta a estes profissionais foi avaliar e obter feedback sobre a nova arquitetura de software e a viabilidade da solução proposta. Dessa forma, os resultados englobaram feedbacks que validaram a implementação da solução computacional, confirmando também a operacionalização da plataforma por parte dos criadores de conteúdo de plataformas de streaming.


  • Mostrar Abstract
  • Blockchain technology enables secure recording and sharing of information without a central authority, using encryption across a distributed network of computers. Widely used in the software industry, it offers authenticity and security features in online transactions. Streaming platforms, such as YouTube and Spotify, among others, are examples of systems that deal with the transmission of data of different types, such as videos, music, and podcasts, and that need to offer transparency, traceability, and security features when handling this data in software systems. In the digital entertainment industry, a research gap was identified in the state of the art concerning the application of Blockchain technology to enable transparency in audience services and payments on streaming. This work proposes inserting a Blockchain layer into the existing operational infrastructure of streaming platforms available on the market. This layer manages individual content information and verifies and audits transactions associated with each digital media. Furthermore, it allows the transfer of monetary resources through the Blockchain network. A software architecture was created to achieve the proposed objective containing the components, interfaces, relationships, and constraints of the functional requirements representing this application domain. In this process, an architecture specification model, the C4 model, was adopted due to its understandable documentation characteristic for both technical and non-technical audiences. After specifying the architecture, the fundamental components for testing and operating the solution proposed in this research were implemented. In this way, middleware was developed to capture and manage the audience mechanisms for each piece of content individually. This occurs through an automatic smart contract generation service executed when content is available and consumed on streaming platforms. Subsequently, a web application was developed that simulates the operations of a streaming platform to integrate with the middleware developed, allowing tests to be carried out, both financial and functional. The tests were conducted on three different Blockchain networks, revealing the technical feasibility of the proposed solution. This was achieved through the interception and automatic management of audience and payment information using smart contracts. Furthermore, the financial viability of the implementation was analyzed, resulting in an average cost of US$0.000518 on one of the Blockchain networks. Additionally, the research involved content creators with monetized channels and software developers specializing in Blockchain. The objective of consulting these professionals was to evaluate and obtain feedback on the new software architecture and the feasibility of the proposed solution. Thus, the results included feedback that validated the implementation of the computational solution, confirming the platform's operationalization by content creators on streaming platforms.

4
  • GEAN DA SILVA SANTOS
  • USO DE MEDIDAS DE TEORIA DA INFORMAÇÃO EXTRAÍDAS DE DADOS DA INTERFACE OBD-II PARA IDENTIFICAÇÃO DO MOTORISTA

  • Orientador : ANDRE LUIZ LINS DE AQUINO
  • MEMBROS DA BANCA :
  • ANDRE LUIZ LINS DE AQUINO
  • FABIANE DA SILVA QUEIROZ
  • RAQUEL DA SILVA CABRAL
  • OSVALDO ANIBAL ROSSO
  • DENIS LIMA DO ROSARIO
  • Data: 25/03/2024

  • Mostrar Resumo
  • Os veículos possuem cada vez mais sensores embutidos, tais sensores são interligados em uma rede interna chamada CAN e seus valores podem ser acessados através da interface OBD-II. Isso permite uma grande quantidade de dados de diferentes variáveis do ato de dirigir.
    Vários trabalhos propuseram aplicações que se beneficiam da disponibilidade desses dados. A maioria dos aplicativos cai em um dos seguintes problemas: classificação, agrupamento, predição. Em geral, os trabalhos realizam o seguinte processo: extração de dados, dados de limpeza e transformação, modelo de treinamento, modelo de avaliação.
    Neste trabalho propõe-se extrair medidas da Teoria da Informação para agregar dados ao processo. Com isso, pretende-se ter novos valores para adicionar ou substituir o pré-processamento dos dados e então avaliar o desempenho do modelo. Para avaliação, pretende-se analisar duas aplicações: identificação de condutores (problema de classificação) e previsão de emissão de gases poluentes (problema de previsão).
    Resultados preliminares foram obtidos para a identificação do motorista. Um experimento foi feito para uma pequena e uma grande quantidade de dados. Para a pequena quantidade de dados, o processo conforme a literatura se mostrou superior na maioria dos algoritmos de classificação em relação ao processo proposto. Para a grande quantidade de dados a diferença entre os processos ficou pequena, porém com o processo segundo a literatura sendo um pouco superior com exceção do algoritmo Naive Bayes (que teve melhor desempenho com o processo proposto, porém teve acurácia inferior aos demais classificadores).
    O próximo passo é comparar o processo proposto e aquele comumente utilizado na literatura para um problema de predição: a predição de emissões de gases poluentes.


  • Mostrar Abstract
  • Vehicles have more and more built-in sensors, such sensors are interconnected in an internal network called CAN and their values can be accessed through the OBD-II interface. This allows a large amount of data from different variables from the act of driving.
    Several works have proposed applications that benefit from the availability of these data. Most applications fall into one of the following problems: classification, grouping, prediction. In general, the works perform the following process: data extraction, cleaning and transformation data, training model, evaluation model.
    In this work it is proposed to extract measures from Information Theory to add data to pro- cess. With this, it is intended to have new values to add or replace the data pre-processing and then evaluate the performance of the model. For evaluation, it is intended to analyze two applications: driver identification (classification problem) and pollutant gas emission prediction (prediction problem).
    Preliminary results were obtained for driver identification. An experiment was done for a small and a large amount of data. For the small amount of data, the process according to the literature proved to be superior in most classification algorithms in relation to the proposed process. For the large amount of data, the difference between the processes became small, however with the process according to the literature being slightly superior with the exception of the Naive Bayes algorithm (which performed better with the proposed process, but had lower accuracy than the other classifiers).
    The next step is to compare the proposed process and the one commonly used in the litera- ture for a prediction problem: prediction of polluting gas emissions.

2023
Dissertações
1
  • MARIA JOSÉ DOS SANTOS TAKESHITA
  • Efeitos de ambientes gamificados estereotipados de gênero sobre a autoeficácia, engajamento e desempenho de estudantes: análises quantitativas e qualitativas

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • IG IBERT BITTENCOURT SANTANA PINTO
  • JARIO JOSE DOS SANTOS JUNIOR
  • LEONARDO BRANDAO MARQUES
  • MARCELO REIS
  • Data: 04/04/2023

  • Mostrar Resumo
  • O uso da gamificação, deve-se destacar, quando amplamente estudada e aplicada na área educacional, proporciona que o ensino seja realizado de forma inovadora, introduzindo na educação novos recursos que auxiliam professores e estudantes no processo da aprendizagem. Gamificação tem sido aplicada para aprimorar o engajamento e a motivação de estudantes, e comumente utilizada online. Apesar desses benefícios, estudos comprovaram que efeitos negativos podem ser obtidos, especialmente quando os estudantes são expostos a ambientes gamificados com estereótipos, como por exemplo os de gênero. Tais estereótipos podem afetar a confiança e crenças em suas capacidades, resumidamente chamada de autoeficácia. Surgem então questões pertinentes: Qual é o impacto de mensagens estereotipadas de gênero sobre o desempenho e engajamento de estudantes? Mensagens de motivação ou “boost” podem aumentar o engajamento e o desempenho dos estudantes nas atividades realizadas em ambientes gamificados? Com o intuito de buscar evidências para responder essas questões, foram conduzidos três estudos no presente trabalho: (1) uma meta-análise com uma revisão bibliográfica sistemática sobre os efeitos do uso de ambientes gamificados sobre a autoeficácia e aprendizado dos estudantes, (2) um estudo experimental usando mensagens de impulso estereotipadas de acordo com gênero identificando a existência de diferenças sobre engajamento, autoeficácia e desempenho de estudantes em sistemas de tutoria gamificados, e (3) um estudo qualitativo sobre os efeitos dos estereótipos na autoeficácia, estado de fluxo e performance, identificando fatores subjetivos não controlados no estudo experimental. É possível afirmar que existe uma carência de estudos relacionando designs gamificados e o traço de autoeficácia, apesar de efeitos positivos do uso dessa técnica sobre desempenho e confiança de estudantes. Além disso, resultados indicam que ambientes gamificados positivamente afetam o desempenho e crenças de autoeficácia, permitindo mais confiança e melhores resultados acadêmicos.


  • Mostrar Abstract
  • The use of gamification, it should be highlighted, when widely studied and applied in the educational area, allows teaching to be conducted in an innovative way, thus allowing introduction of new resources in education and helping teachers and students in the learning process. Gamification has been widely applied to increase student engagement and motivation, and is often used online. Despite the clear benefits, studies show that negative effects can be found in engagement, especially when students are exposed to gender-stereotyped gamified environments. A pertinent question then arises: How to increase the engagement and performance of students in the activities performed, using a Boost-type message (i.e., positive message) in a gamified environment? Consequently, increasing performance in the implemented activities? In order to seek evidence to answer these questions, a study was conducted to investigate whether the gender stereotype with the use of Boost-type messages in gamified online educational environments can actually motivate students' self-efficacy and performance. The experiment was divided into three stages: (1) a questionnaire about their self-efficacy, followed by (2) a hypothetical gamified online system with logic questions where they could or could not receive a positive message (Boost) accordingly with their gender. Subsequently, its self-efficacy was reassessed (3), thus verifying if any changes could be traced. Under the prism of the observed factors, results indicated that female participants had better engagement results when using a female impulse message (stFemale) environment was introduced. Nonetheless, male participants presented significantly higher results in relation to self-efficacy and performance, thus raising the need for qualitative analysis of the results presented regarding female participants' self-efficacy and performance.

2
  • LUCIANO JULIO DOS SANTOS
  • MONITORAMENTO DO DESEQUILÍBRIO DE TENSÃO E DA CORRENTE REVERSA NA REDE DE DISTRIBUIÇÃO DE BAIXA TENSÃO: UMA PROPOSTA DE SISTEMA COMPUTACIONAL QUE UTILIZA A INFRAESTRUTURA DE ILUMINAÇÃO PÚBLICA

     
     
  • Orientador : ERICK DE ANDRADE BARBOZA
  • MEMBROS DA BANCA :
  • RONALDO RIBEIRO BARBOSA DE AQUINO
  • ANDRE LUIZ LINS DE AQUINO
  • ERICK DE ANDRADE BARBOZA
  • IGOR CAVALCANTE TORRES
  • Data: 23/05/2023

  • Mostrar Resumo
  • As matrizes energéticas do Brasil e do mundo estão num processo de descentralização da produção de energia devido à expansão da Geração Distribuída (DG) resultado da energia gerada por meio dos Painéis Fotovoltaicos (PV) instalados nos telhados das residências em áreas urbanas. Esta descentralização fez do monitoramento da qualidade da energia das Redes de Distribuição de Baixa Tensão (RDBT) um dos maiores desafios para os Opera  dores de Sistemas de Distribuição (OSDs) que só estão conscientes dos níveis de qualidade energética por intermédio das queixas dos clientes às distribuidoras. Existem poucos projetos de implementação de sistemas para este fim, possivelmente devido ao elevado investimento necessário para esta tecnologia. Por conseguinte, este trabalho propõe um sistema de monitoramento do sentido do fluxo da corrente elétrica e do Desequilíbrio de Tensão (DT) em uma RDBT, utilizando a Infraestrutura da Iluminação Pública (IIPu). O sistema proposto fornecerá aos OSDs informações em tempo real da qualidade da energia na RDBT por meio de um modelo de aquisição de dados de baixo custo, utilizando a IIPu por meio dos Relés de Telegestão (RT). O sistema foi validado empiricamente por meio do monitoramento de uma rua onde os sistemas de geração fotovoltaica ligados a RDBT injetam energia. Os resultados mostram que o sistema proposto pode identificar a direção da corrente na RDBT e estimar o DT com um erro médio absoluto de 0,096% em comparação com o analisador de energia profissional. Os resultados deste projeto podem trazer contribuições relevantes para o desafio no monitoramento da qualidade da energia; por exemplo, os OSDs podem utilizar o sistema proposto para acessar a informação em tempo real relativa à RDBT por meio de um modelo de aquisição de dados de baixo custo. Espera-se que os resultados deste projeto tragam contribuições relevantes para o desafio no monitoramento dos níveis da qualidade da energia, colaborando assim para uma expansão mais ordenada da distribuição da produção de energia no Brasil.

     
     

  • Mostrar Abstract
  • Brazil’s and the world’s energy matrices are in an energy generation decentralization process due to the Distributed Generation (DG) expansion resulting in the energy generated through Photovoltaic Panels (PP) installed on the roofs of residences in urban areas. This change has made the energy quality monitoring for the Low Voltage Distribution Networks (LVDN) one of the Distribution System Operators (DSO) biggest challenges, who are only aware of the energy quality levels through the customers’ complaints to the distributors. There are few projects implementing systems for this purpose, possibly due to the high investment required for this technology. Therefore, this research proposes a cyber-physical system for monitoring the direction of electric current flow and voltage imbalances in an RDBT using the street lighting infrastructure. The proposed system will provide the DSO’s with real-time information on the power quality in the RDBT through a low-cost data acquisition model using the street lighting infrastructure through Telemanagement Relays (TR). The system was empirically validated by monitoring a street where photovoltaic generation systems stochastically connected to RDBT inject power. The results show that the proposed system can identify the direction of the current in the RDBT and estimate the voltage unbalance with an average absolute error of 0.096% compared to the professional power analyzer. The results of this project can make relevant contributions to the challenge in power quality monitoring; for example, DSO’s can use the proposed system to access real-time information relative to the RDBT through a low-cost data acquisition model. It is expected that the results of this project would bring relevant contributions to the challenge of monitoring the levels of power quality, thus collaborating for a more orderly expansion of the distribution of energy production in Brazil.

     
3
  • ANDRE MOABSON DA SILVA RAMOS
  • Code Smells Detection Across Programming Languages

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • WESLEY KLEWERTON GUEZ ASSUNÇÃO
  • BALDOINO FONSECA DOS SANTOS NETO
  • MARCIO DE MEDEIROS RIBEIRO
  • RAFAEL MAIANI DE MELLO
  • Data: 30/06/2023

  • Mostrar Resumo
  • Durante o desenvolvimento de um software, a presença de code smells tem sido relacionada com a degradação na qualidade do software. Diversos estudos mostram a importância de detectar os smells no código fonte e aplicar refatoração. No entanto, as abordagens existentes para a detecção de code smells são limitadas para determinadas linguagens de programação. Nesse contexto, este trabalho visa ampliar os métodos para detecção de code smells utilizando o aprendizado por transferência comparando os resultados de modelos construídos a partir de duas arquiteturas de redes neurais. Para o nosso estudo, selecionamos cinco linguagens de programação que estão entre as 10 de linguagens mais utilizadas segundo pesquisa do StackOverflow feita em 2021, sendo elas: Java, C#, C++, Python e JavaScript. Os resultados indicaram que ao aplicar o aprendizado por transferência os modelos conseguiram classificar bem os trechos de códigos com smell em outras linguagens com exceção do modelo Python independente da arquitetura do modelo. Esses resultados podem ajudar os desenvolvedores e pesquisadores a aplicar as mesmas estratégias de detecção de code smells em diferentes linguagens de programação e utilizar modelos e conjuntos de dados que disponibilizamos. 


  • Mostrar Abstract
  • During software development, the presence of code smells has been related to the degradation of software quality. Several studies present the importance of detecting smells in the source code and to apply refactoring. However, the existing approaches for detecting code smells are limited for certain programming languages. In this context, this work aims to extend the techniques of code smell detection using transfer learning by comparing the results of models built from two neural network architectures. For our study, we selected five programming languages that are among the 10 most used languages according to a survey conducted by StackOverflow in 2021: Java, C#, C++, Python and JavaScript. The results indicated that when applying transfer learning, the models were able to classify well the snippets of smelled code in other languages with the exception of the Python model, regardless of the model's architecture. These results can help developers and researchers to apply the same code smell detection strategies in different programming languages and use models and datasets that we make available. 

4
  • BRUNO FERREIRA BARBOSA ROCHA
  • UM MODELO DE GESTÃO DA QUALIDADE PARA PROJETOS CROWDSOURCING DO SETOR PÚBLICO

  • Orientador : ALAN PEDRO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN PEDRO DA SILVA
  • RANILSON OSCAR ARAUJO PAIVA
  • FERNANDO SILVIO CAVALCANTE PIMENTEL
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 10/07/2023

  • Mostrar Resumo
  • A participação pública pode ser vista como uma extensão lógica do processo democrático, conforme explica Brabham [2009]. Dentro deste aspecto surge o Crowdsourcing, (neologismo de “crowd” – multidão e “outsourcing” – terceirização) que, segundo Howe [2009] é o ato de oferecer um trabalho (geralmente executado por uma pessoa, um empregado ou uma empresa contratada) em uma chamada aberta (“opencall”) para participação de um grupo de pessoas. Crowdsourcing pode ter um papel efetivo na administração pública dentro do sistema de prestação de serviços públicos, nas percepções das autoridades governamentais e dos cidadãos, e no contexto com relação a práticas de gestão inovadoras e modernizadas Sumra and Bing [2016]. Crowdsourcing, em resumo, é um método de solução de problemas de propósito geral, que utiliza um grupo de participantes dispostos a ajudar a resolver um problema proposto Neto and Santos [2018]. Torneios de inovação, prêmios para resolver um problema de engenharia ou pagamento online aos participantes pela categorização de imagens são exemplos de crowdsourcing Ranard et al. [2013]. Brabham Brabham [2009], em seu estudo sobre planejamento de projetos Crowdsourcing, defende que é um modelo capaz de agregar talentos, alavancar a engenhosidade e ao mesmo tempo reduzir os custos e o tempo que antes eram necessários para a solução de problemas, em consonância com o entendimento de Koch et al. [2011] que aborda que as plataformas de crowdsourcing e cocriação mudaram a maneira como as empresas implementam a inovação aberta.


  • Mostrar Abstract
  • Public participation can be seen as a logical extension of the democratic process, as explained by Brabham [2009]. Within this aspect arises Crowdsourcing (a neologism of “crowd” – crowd and “outsourcing” – outsourcing) which, according to Howe [2009] is the act of offering a job (generally performed by a person, an employee or a contracted company). in an open call (“opencall”) for the participation of a group of people. Crowdsourcing can play an effective role in public administration within the public service delivery system, in the perceptions of government authorities and citizens, and in the context with respect to innovative and modernized management practices Sumra and Bing [2016]. Crowdsourcing, in short, is a general-purpose problem-solving method, which uses a group of participants willing to help solve a proposed problem Neto and Santos [2018]. Innovation tournaments, prizes for solving an engineering problem, or online payment to participants for categorizing images are examples of crowdsourcing Ranard et al. [2013]. Brabham Brabham [2009], in his study on Crowdsourcing project planning, argues that it is a model capable of aggregating talents, leveraging ingenuity and at the same time reducing costs and time that were previously needed to solve problems, in line with with the understanding of Koch et al. [2011] which addresses that crowdsourcing and co-creation platforms have changed the way companies implement open innovation.

     
    Ícone "Verificada pela comunidade"
     
5
  • ANDRESSA MARTINS OLIVEIRA
  • Framework para teleoperação de robôs móveis

  • Orientador : ICARO BEZERRA QUEIROZ DE ARAUJO
  • MEMBROS DA BANCA :
  • ALLAN DE MEDEIROS MARTINS
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • TIAGO FIGUEIREDO VIEIRA
  • Data: 19/07/2023

  • Mostrar Resumo
  • Apesar dos grandes avanços em robôs autônomos, algumas atividades ainda necessitam de supervisão humana por diversos barreiras encontradas, assim o desenvolvimento de sistemas telerobóticos vêm emergindo em diversas áreas de atuação. Este trabalho propõe o desenvolvimento de um sistema de teleoperação de robô móvel, capaz de atuar em diversas arquiteturas de controle de robôs teleoperados, implementando o controle compartilhado e o supervisório a partir do framework ROS e suas ferramentas para a comunicação entre o operador e o robô. 


  • Mostrar Abstract
  • Despite the great advances in autonomous robots, some activities still require human supervision due to several barriers encountered, so the development of telerobotic systems has emerged in several areas of activity. This work proposes the development of a mobile robot teleoperation system, capable of acting in several teleoperated robot control architectures, implementing shared and supervisory control from the ROS framework and its tools for communication between the operator and the machine. .

6
  • CRISTÓVÃO DA SILVA RODRIGUES COSTA
  • Detecção de microações em vídeos faciais para análise de carga cognitiva em ambientes de aprendizado multimídia

  • Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
  • MEMBROS DA BANCA :
  • BRUNO ALMEIDA PIMENTEL
  • DIEGO CARVALHO DO NASCIMENTO
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • Data: 31/07/2023

  • Mostrar Resumo
  • A evolução tecnológica dos últimos anos, acelerada pela pandemia do Covid19, foi responsável por uma rápida e contínua quebra de paradigmas no ensino, com a adoção de ambientes de aprendizagem multimídia. Durante o processo de aprendizagem nestes ambientes, a absorção do conteúdo pelo discente cai com o aumento do volume de informação transmitida aos alunos, ou seja, quando há uma sobrecarga cognitiva em um ou em ambos os canais visual e verbal. Atualmente são escassos os estudos que utilizam ferramentas de Visão Computacional e Ciência de Dados para a análise da Carga Cognitiva. Ferramentas desta natureza possibilitariam uma análise automatizada de grandes volumes de vídeos, e consequentemente a avaliação e geração de conteúdo multimídia que otimizem o aprendizado dos alunos. Neste trabalho adotou-se um estudo piloto com uma amostra de 13 alunos da faculdade de medicina da Universidad de Atacama, Chile. Assim, foi desenvolvida uma metodologia para extrair e investigar correlações entre características visuais da face dos alunos e a carga cognitiva. Foi usada uma base de vídeos faciais dos alunos assistindo, pela tela do computador, aulas com recursos multimídia. Esta base de vídeos foi inicialmente organizada e pré-processada, aplicando-se em seguida modelos de Aprendizado Profundo para extrair pontos de interesse visuais da face em cada quadro. As micro ações foram previamente anotadas pelo pesquisado e os dados resultantes foram avaliados para identificação de padrões relevantes relacionados à carga cognitiva, por meio de algoritmos de aprendizado de máquina não-supervisionados e supervisionados. Além de responder à investigação principal desta pesquisa, os resultados deste estudo incluem uma prova de conceito para a analise da correlação das expressões faciais com a nota da prova do individuo para posterior analise da carga cognitiva em ambientes de aprendizagem multimídia.


  • Mostrar Abstract
  • The technological evolution of recent years, accelerated by the Covid-19 pandemic, has been responsible for a rapid and continuous paradigm shift in education, with the adoption of multimedia learning environments. During the learning process in these environments, the absorption of content by students decreases as the volume of information transmitted to them increases. In other words, there is a cognitive overload in one or both visual and verbal channels. Currently, there is a scarcity of studies that use Computer Vision and Data Science tools for the analysis of Cognitive Load. Tools of this nature would enable automated analysis of large volumes of videos and, consequently, the evaluation and generation of multimedia content that optimize student learning. In this work, a pilot study was conducted with a sample of 13 students from the School of Medicine at the Universidad de Atacama, Chile. Thus, a methodology was developed to extract and investigate correlations between visual characteristics of the students' faces and cognitive load. A database of facial videos of students watching multimedia-enhanced lectures on their computer screens was used. This video database was initially organized and preprocessed, followed by the application of Deep Learning models to extract visual points of interest from the face in each frame. Micro-actions were previously annotated by the researcher, and the resulting data were evaluated to identify relevant patterns related to cognitive load using unsupervised and supervised machine learning algorithms. In addition to addressing the main investigation of this research, the results of this study include a proof of concept for analyzing the correlation of facial expressions with individual exam scores, for further analysis of cognitive load in multimedia learning environments.

7
  • DURVAL PEREIRA CESAR NETO
  • Compreendendo código nocivo por meio de transfer learning

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • BALDOINO FONSECA DOS SANTOS NETO
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCELO COSTA OLIVEIRA
  • Data: 28/08/2023

  • Mostrar Resumo
  • Code smells são indicadores de implementação e tomadas de decisão de design inadequadas que podem prejudicar potencialmente a qualidade do software. Portanto, detectar esses smells é crucial para evitar tais problemas. Alguns estudos têm como objetivo compreender o impacto dos code smells na qualidade do software, enquanto outros propõem regras ou abordagens baseadas em aprendizado de máquina para identificar code smells. Pesquisas anteriores têm se concentrado na rotulagem e análise de trechos de código que afetam significativamente a qualidade do software, utilizando técnicas de aprendizado de máquina. Esses trechos de código são classificados como Clean, Smelly, Buggy e nocivo. Código nocivo se refere a trechos de códigos com code smell que possuem um ou mais bugs relatados, estejam eles corrigidos ou não. Consequentemente, a presença de códigos nocivos aumenta o risco de introduzir novos defeitos e/ou problemas de design durante o processo de correção. Embora tenham sido gerados resultados úteis para a detecção de códigos nocivos, nenhum dos trabalhos anteriores considerou, por meio da transferência de aprendizado, treinar um modelo para identificar trechos nocivos em uma linguagem de programação e ser capaz de identificar a mesma nocividade em outra linguagem de programação. Realizamos nosso estudo nesse escopo com 5 tipos de code smells, 803.258 versões de 23 projetos de código aberto, 8.181 bugs e 11.506 code smells. Os resultados revelaram uma transferência promissora de conhecimento entre Java e C# na presença de vários tipos de code smells, enquanto C++ mostrou uma transferência mais desafiadora. Além disso, nosso estudo descobriu que um tamanho de amostra de 32 apresentou resultados favoráveis para a maioria dos códigos nocivos utilizados, destacando a eficiência da transferência de aprendizado mesmo com dados limitados.

     

  • Mostrar Abstract
  • Code smells are indicators of poor design implementation and decision-making that can potentially harm the quality of software. Therefore, detecting these smells is crucial to prevent such issues. Some studies aim to comprehend the impact of code smells on software quality, while others propose rules or machine learning-based approaches to identify code smells. Previous research has focused on labeling and analyzing code snippets that significantly impair software quality using machine learning techniques. These snippets are classified as Clean, Smelly, Buggy, and Harmful Code. Harmful Code refers to Smelly code segments that have one or more reported bugs, whether fixed or not. Consequently, the presence of a Harmful Code increases the risk of introducing new defects and/or design issues during the remediation process. While generating useful results for harmful code detection, none of the prior work has considered through the use of transfer learning, training a model to identify harmful snippets in one programming language and being able to identify similar harmfulness in another programming language. We perform our study on this scope with five smell types, 803 258,035 versions of 23 open-source projects, 8,181 bugs, and 11,506 code smells. The findings revealed promising transferability of knowledge between Java and C# in the presence of various code smells types, while C++ exhibited more challenging transferability. Also, our study discovered that a sample size of 32 demonstrated favorable outcomes for most harmful codes, underscoring the efficiency of transfer learning even with limited data.

8
  • WELLIGNTON BATISTA DA SILVA
  • RECOMENDAÇÃO DE UM MODELO DE APRENDIZADO DE MÁQUINA PARA PREDIÇÃO DE RISCO CARDIOVASCULAR COM BIOMARCADORES DA SÍNDROME METABÓLICA E ESCORE DE FRAMINGHAM

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • ALMIR PEREIRA GUIMARAES
  • BRUNO ALMEIDA PIMENTEL
  • RAFAEL DE AMORIM SILVA
  • RAFAEL FERREIRA LEITE DE MELLO
  • RANILSON OSCAR ARAUJO PAIVA
  • Data: 30/08/2023

  • Mostrar Resumo
  • A previsão de eventos cardiovasculares em pacientes diagnosticados com Síndrome Metabólica
    (SM) é um tema de grande relevância para a área da Saúde, em geral, e fundamental para a
    da Endocrinologia. Esta dissertação objetiva recomendar um modelo de Machine Learning
    (ML) para estimar os riscos de eventos cardiovasculares em pacientes com SM, explorando
    os marcadores do escore de Framingham (FRS) e da SM. Metodologicamente, utilizamos um
    modelo de regressão logística e análises com árvore de decisão, floresta aleatória, impulsiona-
    mento de gradiente, máquina de vetores de suporte e k-vizinhos mais próximos para testar nossa
    hipótese central de que os bioindicadores (variáveis relacionadas à SM) exercem um impacto
    positivo, forte e significativo nos eventos cardiovasculares em pacientes com SM. Tecnicamente a
    pesquisa foi conduzida por meio de experimentos realizados em diferentes cenários. No primeiro
    cenário, um algoritmo foi desenvolvido para avaliar o risco cardiovascular em pacientes com e
    sem SM. Nos cenários subsequentes, foram analisados pacientes com e sem SM, considerando
    os marcadores de SM e FRS como variáveis dependentes, enquanto a condição de Síndrome
    Metabólica foi adotada como variável independente. No quinto cenário, uma análise foi realizada
    para selecionar o modelo de regressão e classificação mais adequado para a predição do risco
    cardiovascular em um conjunto de dados combinado de doenças cardíacas. No sexto cenário,
    o modelo desenvolvido foi fundamentado no Escore de Risco Global (ERG) de Framingham,
    incorporando os marcadores da SM nos experimentos. Os dados foram obtidos a partir do
    repositório do National Center for Health Statistics (NHANES), um conjunto de dados combi-
    nados de doenças cardíacas do Repositório de aprendizado de máquina UCI. e da plataforma
    Kaggle. Em resumo, os principais achados desta dissertação são os seguintes: (1) No primeiro
    cenário, uma diferença percentual de 81,74% foi observada nas médias de Risco ECV entre as
    populações com e sem Síndrome Metabólica, evidenciando um aumento significativo do risco
    cardiovascular na população com SM; (2) nos cenários subsequentes, o modelo Random Forest
    (RF) se destacou, alcançando alta acurácia em todas as combinações de variáveis, especialmente
    na combinação dos marcadores da SM com o marcador de sexo; (3) no quinto cenário, o modelo
    RF foi identificado como o mais indicado, destacando a importância das variáveis relacionadas
    à SM na predição do risco cardiovascular e ressaltando a necessidade de aprimoramentos nos
    modelos para melhor identificação dos casos positivos; (4) tanto o modelo com três marcadores
    da SM quanto o modelo com cinco marcadores da SM combinados ao escore de Framingham
    (SM + FRS) apresentaram desempenho considerável, com correlações e acurácias significativas
    (0.80 e 0.84, respectivamente). Essas combinações mais simples de variáveis podem ser uma
    abordagem interessante, uma vez que fornecem informações relevantes para a predição do risco
    cardiovascular de forma menos invasiva, evitando a necessidade de exames mais complexos.


  • Mostrar Abstract
  • The prediction of cardiovascular events in patients diagnosed with Metabolic Syndrome (MS)
    is a topic of great relevance to the field of Health in general and essential for Endocrinology.
    This dissertation aims to recommend a Machine Learning (ML) model for estimating the risks
    of cardiovascular events in patients with MS, exploring the markers of the Framingham Risk
    Score (FRS) and MS. Methodologically, we used a logistic regression model and analyses with
    decision tree, random forest, gradient boosting, support vector machine, and k-nearest neighbors
    to test our central hypothesis that biomarkers (variables related to MS) have a positive, strong,
    and significant impact on cardiovascular events in patients with MS. Technically, the research
    was conducted through experiments performed in different scenarios. In the first scenario, an
    algorithm was developed to assess cardiovascular risk in patients with and without MS. In
    subsequent scenarios, patients with and without MS were analyzed, considering the markers of
    MS and FRS as dependent variables, while the Metabolic Syndrome condition was adopted as an
    independent variable. In the fifth scenario, an analysis was performed to select the most suitable
    regression and classification model for predicting cardiovascular risk in a combined dataset of
    heart diseases. In the sixth scenario, the developed model was based on the Framingham Global
    Risk Score (FRS), incorporating the markers of MS into the experiments. Data were obtained
    from the National Center for Health Statistics (NHANES) repository, a combined dataset of heart
    diseases from the UCI Machine Learning Repository and the Kaggle platform. In summary, the
    main findings of this dissertation are as follows: (1) In the first scenario, a percentage difference
    of 81.74% was observed in the mean CVD risk between populations with and without Metabolic
    Syndrome, showing a significant increase in cardiovascular risk in the population with MS; (2)
    In subsequent scenarios, the Random Forest (RF) model stood out, achieving high accuracy
    in all variable combinations, especially when combining the markers of MS with the gender
    marker; (3) In the fifth scenario, the RF model was identified as the most suitable, highlighting
    the importance of variables related to MS in predicting cardiovascular risk and emphasizing the
    need for improvements in models for better identification of positive cases; (4) Both the model
    with three MS markers and the model with five MS markers combined with the Framingham
    Risk Score (MS + FRS) showed considerable performance, with significant correlations and
    accuracies (0.80 and 0.84, respectively). These simpler combinations of variables can be an
    interesting approach as they provide relevant information for cardiovascular risk prediction in a
    less invasive manner, avoiding the need for more complex tests.

9
  • JULIANO ROCHA BARBOSA
  • Avaliando a resiliência de serviços NLP na Amazon, Microsoft e Google

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • BALDOINO FONSECA DOS SANTOS NETO
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCELO COSTA OLIVEIRA
  • MARCIO DE MEDEIROS RIBEIRO
  • Data: 30/08/2023

  • Mostrar Resumo
  • O processamento de linguagem natural (NLP) revolucionou as indústrias, simplificando o atendimento ao cliente por meio de aplicativos nos domínios de saúde, finanças, jurídico e recursos humanos e simplificando tarefas como pesquisa médica, análise financeira e análise de sentimentos. Para evitar os altos custos de construção e manutenção da infraestrutura de NLP, as empresas recorrem aos serviços Cloud NLP oferecidos pelos principais provedores de nuvem como Amazon, Google e Microsoft. No entanto, pouco se sabe sobre a resiliência desses serviços quando sujeitos a ruído. Este artigo apresenta um estudo que analisa a resiliência dos serviços Cloud NLP avaliando a eficácia dos serviços de análise de sentimento fornecidos pela Amazon, Google e Microsoft quando submetidos a 12 tipos de ruído, incluindo ruídos sintáticos e semânticos. Os resultados indicam que o Google é o mais resiliente a ruídos sintáticos e a Microsoft é o mais resiliente a ruídos semânticos. Essas descobertas podem ajudar desenvolvedores e empresas a selecionar o provedor de serviços mais adequado e lançar luz para melhorar as técnicas de ponta para serviços eficazes de NLP em nuvem.


  • Mostrar Abstract
  • Natural Language Processing (NLP) has revolutionized industries, streamlining customer service through applications in healthcare, finance, legal, and human resources domains, and simplifying tasks like medical research, financial analysis, and sentiment analysis. To avoid the high costs of building and maintaining NLP infrastructure, companies turn to Cloud NLP services offered by major cloud providers like Amazon, Google, and Microsoft. However, there is little knowledge about how resilient these services are when subjected to noise. This paper presents a study that analyzes the resilience of Cloud NLP services by evaluating the effectiveness of sentiment analysis services provided by Amazon, Google, and Microsoft when subjected to 12 types of noise, including syntactic and semantic noises. The findings indicate that Google is the most resilient to syntactic noises, and Microsoft is the most resilient to semantic noises. These findings may help developers and companies in selecting the most suitable service provider and shed light towards improving state-of-the-art techniques for effective cloud NLP services.

10
  • MARIANA SILVA GOIS DE ALMEIDA
  • O USO DA APRENDIZAGEM DE MÁQUINA PARA A CRIAÇÃO DE FÓRMULAS BIOMÉTRICAS PARA O CÁLCULO DA LENTE INTRAOCULAR

  • Orientador : AYDANO PAMPONET MACHADO
  • MEMBROS DA BANCA :
  • AYDANO PAMPONET MACHADO
  • EVANDRO DE BARROS COSTA
  • EDILEUZA VIRGINIO LEÃO
  • JOÃO MARCELO DE ALMEIDA GUSMÃO LYRA
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 31/08/2023

  • Mostrar Resumo
  • Objetivo: Elaborar uma nova fórmula biométrica com base em um banco de dados  da população brasileira e comparação com o desempenho de outras 6 fórmulas existentes no meio científico. Local: Os participantes foram avaliados e submetidos à cirurgia em um hospital oftalmológico de Brasília, DF, Brasil. Desenho: Um estudo clínico retrospectivo para comparar o desempenho de fórmulas biométricas. Metodologia: Os desempenhos de modelos de aprendizagem de máquina e das fórmulas de Barrett Universal II, Haigis, Hoffer Q, Holladay 1, Kane e SRK/T foram analisados comparando-se o erro absoluto mediano e a porcentagem de olhos com menos de 0,5 e 1,0D de erro absoluto. Resultados: foram analisados 1526 olhos únicos, onde as fórmulas de Barrett Universal II, Haigis, Hoffer Q, Holladay 1, Kane e SRK/T e os modelos MLP e SVR obtiveram, respectivamente, os seguintes valores de erro absoluto mediano: 0.393, 0.426, 0.427, 0.387, 0.409, 0.410, 0.405 e 0.370 D.

    Os desempenhos do modelo SVR e das fórmulas Holladay 1 e Barrett Universal II também foram superiores em todos os subgrupos estudados. Conclusão: A fórmula baseada em modelo computacional proposta obteve resultados superiores em comparação com outras fórmulas para cálculo do poder da lente intraocular nesta população e em todos os subgrupos biométricos estudados.


  • Mostrar Abstract
  • Purpuse: To elaborate a new biometric formula based on a database of the Brazilian population and comparison with the performance of other 6 formulas existing in the scientific community. Location: Participants were evaluated and underwent surgery at an ophthalmological hospital in Brasília, DF, Brazil. Design: A retrospective clinical study to compare the performance of biometric formulas. Methodology: The performances of machine learning models and Barrett Universal II, Haigis, Hoffer Q, Holladay 1, Kane and SRK/T formulas were analyzed by comparing the median absolute error and the percentage of eyes with less than 0, 5 and 1.0D of absolute error. Results: 1526 single eyes were analyzed, where the Barrett Universal II, Haigis, Hoffer Q, Holladay 1, Kane and SRK/T formulas and the MLP and SVR models obtained, respectively, the following median absolute error values: 0.393, 0.426, 0.427, 0.387, 0.409, 0.410, 0.405 and 0.370 D. The performances of the SVR model and the Holladay 1 and Barrett Universal II formulas were also superior in all studied subgroups. Conclusion: The proposed computational model-based formula obtained superior results compared to other formulas for calculating intraocular lens power in this population and in all studied biometric subgroups.

11
  • CLEBERSON DOS SANTOS MACHADO
  • MODELAGEM COMPUTACIONAL PARA RECOMENDAÇÃO DE PARÂMETROS DE DISPOSITIVOS DE ASSISTÊNCIA VENTRICULAR PULSÁTEIS POR MEIO DA ANÁLISE DA RESPOSTA CARDIOVASCULAR

     
     
  • Orientador : THIAGO DAMASCENO CORDEIRO
  • MEMBROS DA BANCA :
  • THIAGO DAMASCENO CORDEIRO
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • Lenardo Chaves e Silva
  • Data: 05/09/2023

  • Mostrar Resumo
  • As doenças cardiovasculares representam grande parte das causas de morte no Brasil. Em casos graves, bombas mecânicas chamadas dispositivos de assistência ventricular (VADs), projetadas para aumentar a expectativa de vida dos pacientes, podem salvar vidas. Este trabalho propõe o uso de simulação computacional para avaliar o desempenho de um modelo acoplado do sistema cardiovascular humano com um VAD pulsátil para encontrar a combinação ideal entre a pressão de ejeção e o instante de ejeção para melhorar a fisiologia da resposta dos pacientes. Como ponto de partida, foram analisadas técnicas disponíveis na literatura, mas para dispositivos rotativos. Por fim, os resultados da simulação computacional foram analisados e concluiu-se que é possível escolher uma combinação ótima que atenda a todas as demandas fisiológicas das principais variáveis hemodinâmicas.

     
     

  • Mostrar Abstract
  • Cardiovascular diseases represent a large part of the causes of death in Brazil. In severe cases, mechanical pumps called ventricular assist devices (VADs), designed to extend patients' life expectancy, can save lives. This work proposes using computer simulation to evaluate the performance of a coupled model of the human cardiovascular system with a pulsatile VAD to find the optimal combination between the ejection pressure and the ejection instant to improve the response physiology of patients. As a starting point, techniques available in the literature but for rotating devices were analysed. Finally, the computer simulation results were analysed, and it was concluded that it is possible to choose an optimal combination that meets all the physiological demands of the main hemodynamic variables.

     
     
12
  • ELISANGELA MARTINS DO NASCIMENTO
  • Investigando a relação entre Garra, Aprendizagem e Experiência de Fluxo em Ambientes Educacionais Gamificados e Estereotipados

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • IG IBERT BITTENCOURT SANTANA PINTO
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • SHEYLA CHRISTINE SANTOS FERNANDES
  • GEISER CHALCO CHALLCO
  • MARCELO REIS
  • Data: 13/10/2023

  • Mostrar Resumo
  • Esta dissertação é composta por três estudos que visam explorar a influência da gamificação,
    que refere-se à integração de elementos e mecânicas de jogos em contextos não relacionados a
    jogos, como ambientes educacionais, no desempenho e engajamento de estudantes e impacto
    de estereótipos de gênero, correlacionando-os com o traço de personalidade Garra . Este
    traço é caracterizado por uma combinação de paixão e perseverança em direção a objetivos
    de longo prazo, no qual abrange qualidades como resiliência, determinação e capacidade de
    manter o esforço e o interesse diante de desafios e contratempos. Diante disso, três estudos
    foram conduzidos, o primeiro estudo é uma revisão sistemática da literatura que investiga
    a correlação entre Garra e sistemas gamificados, sugerindo que a gamificação influencia
    positivamente o engajamento e o desempenho dos alunos. O segundo estudo enfoca as
    diferenças de gênero em sistemas de tutoria gamificados estereotipados, sugerindo que a Garra
    por si só pode não ser suficiente para reduzir essas disparidades, indicando nos resultados
    que os estereótipos de gênero podem afetar negativamente o desempenho e o engajamento
    para mulheres com baixos níveis de Garra. O terceiro estudo é uma análise qualitativa que
    explora as percepções emocionais dos participantes em um ambiente gamificado estereotipado,
    identificando sentimentos negativos de falta de controle. No geral, as descobertas destacam
    a necessidade de ambientes gamificados equitativos e cuidadosamente projetados para evitar
    efeitos negativos no desempenho e engajamento dos estudantes. Pesquisas futuras devem
    considerar uma abordagem holística, investigando correlações complexas entre traços de
    personalidade, métodos de engajamento e desempenho acadêmico e o impacto do estereótipo
    de gênero. Estudos futuros também devem orientar o desenvolvimento de metodologias de
    ensino e aprendizado.


  • Mostrar Abstract
  • This dissertation is composed of three studies that aim to explore the influence of gamification,
    which refers to the integration of game elements and mechanics in non-game contexts, such as
    educational environments, on student performance and engagement and the impact of gender
    stereotypes. , correlating them with the Grit personality trait. This trait is characterized by a
    combination of passion and perseverance towards long-term goals, which encompasses qualities
    such as resilience, determination and the ability to maintain effort and interest in the face of
    challenges and setbacks. Given this, three studies were conducted, the first study is a systematic
    review of the literature that investigates the correlation between Grit and gamified systems,
    suggesting that gamification positively influences student engagement and performance. The
    second study focuses on gender differences in stereotypical gamified tutoring systems, suggesting
    that Grit alone may not be enough to reduce these disparities, indicating in the results that
    gender stereotypes can negatively affect performance and engagement for women with low levels
    of Grit. The third study is a qualitative analysis that explores participants’ emotional perceptions
    in a stereotyped gamified environment, identifying negative feelings of lack of control. Overall,
    the findings highlight the need for equitable and carefully designed gamified environments to
    avoid negative effects on student performance and engagement. Future research should consider
    a holistic approach, investigating complex correlations between personality traits, engagement
    methods and academic performance, and the impact of gender stereotyping. Future studies
    should also guide the development of teaching and learning methodologies.

13
  • JOÃO VITOR LOURENÇO BATISTA DO NASCIMENTO
  • EFEITOS DE ESTEREÓTIPOS DE GÊNERO, E RAÇA, EM MEDIADORES PSICOLÓGICOS DA APRENDIZAGEM DURANTE O USO DE AMBIENTES EDUCACIONAIS ONLINE GAMIFICADOS

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • IG IBERT BITTENCOURT SANTANA PINTO
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • IVANDERSON PEREIRA DA SILVA
  • JARIO JOSE DOS SANTOS JUNIOR
  • FLÁVIA MARIA SANTORO
  • Data: 30/10/2023

  • Mostrar Resumo
  • Devido a pandemia da COVID-19 as tecnologias educacionais se tornam cada vez mais comuns em ambientes de ensino principalmente no contexto da graduação. Diversos autores discutem problemas que estão relacionados fortemente as tecnologias educacionais digitais, estando alguns deles não relacionados diretamente a ciência da computação como os estereótipos, que são questões multidisciplinares a serem trabalhadas em interface com a psicologia social. A problemática das tecnologias educacionais digitais estereotipadas está na possiblidade de milhares de alunos estarem tendo seu desempenho acadêmico afetado negativamente por estereótipos: raciais e de gênero. Este trabalho de dissertação discute a influência dos estereótipos raciais e de gênero em ambientes educacionais online gamificados utilizados por estudantes de graduação. O objetivo geral da pesquisa é compreender os efeitos desses estereótipos presentes no desenvolvimento de um ambiente educacional gamificado, analisando três construtos psicológicos que afetam a performance e a aprendizagem: Flow, Selfhandicapping e Ansiedade. Para alcançar este objetivo, lançaremos mão da realização de experimentos. Como resultados dessa pesquisa, temos que, ao verificar a influência dos estereótipos de gênero, que eles influenciam negativamente nos níveis de fluxo e de desempenho de mulheres quando em ambientes de gênero oposto ao seu. Essa influência, não afetou muito os homens, que apesar de estarem na condição de ameaça dos estereótipos continuaram tendo classificações mais altas. Por sua vez, ao verificar as influências dos estereótipos raciais, nos níveis de fluxo, ansiedade e desempenho, de estudantes de graduação, encontramos que houve sim um aumento de ansiedade e de fluxo, e que houve diferenças no desempenho dos estudantes, em especial entre os homens brancos não-cotistas, e as mulheres pretas cotistas, mas que estas diferenças não foram estatisticamente significantes entre os grupos. Inferimos também, a partir do segundo estudo, que há influência dos mediadores psicológicos no desempenho dos estudantes. Inspirado nos resultados desses estudos foi produzido um artigo que propõe uma metodologia batizada de olhar caleidoscópico que apresenta uma proposta de produzir designs de tecnologias que considerem as nuances sociais inerentes aos sujeitos alvo das soluções. A relevância da pesquisa está na possibilidade de contribuir com as áreas de informática na educação, na elaboração de tecnologias educacionais digitais e psicologia, na compreensão da influência dos estereótipos. Ademais este trabalho contribui para pensar o desenvolvimento de tecnologias educacionais sob uma perspectiva que leve em conta a interseccionalidade inerente aos seus usuários, tornando estas mais eficazes ao considerar o contexto social no qual estes estão inseridos.


  • Mostrar Abstract
  • Due to the COVID-19 pandemic, educational technologies are becoming increasingly common in learning environments, especially in the context of undergraduate education. Several authors discuss problems that are strongly related to digital educational technologies, with some of them not directly related to computer science, such as stereotypes, which are multidisciplinary issues to be addressed in interface with social psychology. The problem of stereotyped digital educational technologies lies in the possibility that thousands of students may have their academic performance negatively affected by racial and gender stereotypes. This dissertation work discusses the influence of racial and gender stereotypes in gamified online educational environments used by undergraduate students. The overall objective of the research is to understand the effects of these stereotypes present in the development of a gamified educational environment, analyzing three psychological constructs that affect performance and learning: Flow, Self-handicapping, and Anxiety. To achieve this goal, we will conduct experiments. As a result of this research, we find that, when examining the influence of gender stereotypes, they negatively impact the levels of flow and performance of women when in gender-opposite environments. This influence did not affect men significantly, as they continued to have higher ratings despite being in a stereotype-threat condition. On the other hand, when examining the influences of racial stereotypes on the levels of flow, anxiety, and performance of undergraduate students, we found that there was indeed an increase in anxiety and flow, and that there were differences in the performance of students, especially between white male nonaffirmative action students and black female affirmative action students, but these differences were not statistically significant between the groups. We also infer from the second study that there is an influence of psychological mediators on student performance. Inspired by the results of these studies, an article proposing a methodology called the kaleidoscopic perspective was produced, which presents a proposal to produce technology designs that consider the social nuances inherent to the target subjects of the solutions. The relevance of the research lies in the possibility of contributing to the areas of computer science in education, the development of digital educational technologies, and psychology in understanding the influence of stereotypes. Furthermore, this work contributes to thinking about the development of educational technologies from a perspective that takes into account the intersectionality inherent to their users, making them more effective by considering the social context in which they are embedded.

14
  • ITALO RODRIGO DA SILVA ARRUDA
  • PERCEPÇÃO DE CARGA DE TRABALHO NO ENVIO DE FEEDBACK PARA DASHBOARDS E LEARNING ANALYTICS: UM EXPERIMENTO CONTROLADO COM PROFESSORES

  • Orientador : DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • MEMBROS DA BANCA :
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • RAFAEL DE AMORIM SILVA
  • RANILSON OSCAR ARAUJO PAIVA
  • HELENA MACEDO REIS
  • Data: 22/11/2023

  • Mostrar Resumo
  • O e-learning tem utilizado tecnologias de informação para potencializar a educação via internet. Com um aumento de 87\% nas matrículas em Educação a Distância desde 2014, a modalidade ultrapassou o ensino presencial em oferta de vagas desde 2020, refletindo a adaptabilidade das instituições ao mundo digital. Assim, os professores têm enfrentado desafios referente ao aumento da carga de trabalho devido à gestão das interações nos ambientes virtuais. Nesse contexto, essa dissertação investiga qual a percepção dos docentes em relação ao seu esforço cognitivo e tempo de dedicação na criação e envio de feedbacks em uma plataforma educacional simulada por meio da Inteligência Artificial e Learning Analytics. Este estudo irá comparar três grupos de professores, utilizando um dos ambientes (manual - AM, automatizado - AA e semi-automatizado - AS) de acompanhamento de uma plataforma educacional simulada. O intuito é otimizar o processo educacional, tornando a gestão de feedbacks mais eficiente, sem sobrecarregar os profissionais da educação. Neste estudo, 98 docentes participantes avaliaram aleatoriamente através de um questionário qual é a sua percepção de esforço cognitivo e tempo dedicado para a criação e envio de feedback para alunos na plataforma. Foi aplicado diversos testes estatísticos, como Shapiro-Wilk, Kolmogorov-Smirnov e Levene, visando compreender a distribuição dos dados, bem como o NASA TLX foi utilizado para avaliar a carga de trabalho percebida pelos docentes. Os resultados revelaram que o teste de Mann-Whitney destacou discrepâncias em certos ambientes e fatores. Na avaliação geral, verificou-se uma diferença estatística significativa entre os AM e AA, tendo o p-valor= 0,0319 e entre os mesmos ambientes, sob o p-valor= 0,0277 para as dimensões de demanda física e temporal, respectivamente, abaixo do limiar de p-valor=0,05. Ao avaliar os professores por gênero, para os homens verificou-se uma diferença estatística significativa entre os AA e AS, tendo o p-valor de 0,0312 e entre os AM e AA, sob o p-valor de 0,0380 para as dimensões de demanda física e nível de frustração, respectivamente. Para as professoras as diferença estatística ficou entre os AM e AS, com o p-valor= 0,0108 na dimensão de demanda física. O AS na maioria dos testes ficava entre o AA e o AM. Notavelmente, o AA influenciou certos aspectos em comparação ao AM. A pesquisa sugere que o tipo de ambiente de feedback pode afetar a carga de trabalho dos docentes, variando de acordo com fatores específicos e gênero.


  • Mostrar Abstract
  • The use of Information Technologies is increasingly evident in educational environments. Online educational teaching platforms make it possible to help students and teachers in the formative mission of teaching and learning in various areas of knowledge. Among the educational platforms focused on e-learning, we have the Massive Open Online Course - MOOC, which allow an adaptive educational environment for users with the support of automated resources for recommendations, carried out by artificial intelligence techniques, with the objective of learning of students according to their usage profiles. In this sense, researchers have been increasingly interested in providing teachers with strategies to accompany students more efficiently in sending feedback in the context of MOOCs in order to use the inherently human capacities of teachers to adjust the feedbacks according to the needs of students, taking into account the Sentiment analysis in posts. However, this work focuses on investigating the perception of teachers in relation to their cognitive effort and time spent in creating and adapting feedback recommendations in a simulated educational platform. This study will compare three groups of teachers, using one of the scenarios (manual, automated and semi-automated) of monitoring a simulated educational platform. The scenarios set will be used in a random experiment, where the participating teachers will evaluate through a form what is their perception of cognitive effort and time dedicated to the creation and adequacy of feedback recommendations and monitoring of students on the platform. In addition to evaluating the Technology Acceptance Model (TAM) of the proposed scenarios as a Leaning Analitics module for MOOCs environments. The results are expected to validate the hypotheses raised: that the use of artificial intelligence in the automated scenario influences the perception of teachers, leading them to present a lower workload than the manual scenario. When evaluating teachers according to the level of feelings of students in the posts, we look for indications that the perception of mental demand in the automated scenario does better when analyzing the manual scenario. Being important contributions to understand the perception of teachers when using educational platforms in their classes.

15
  • FLAVIO YURI AQUINO DE OLIVEIRA
  • UM MODELO COMPUTACIONAL DE RECOMENDAÇÃO DE TRATAMENTO
    TERAPÊUTICO PERSONALIZADO PARA PACIENTE COM QUADRO SÉPTICO

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • RAFAEL DE AMORIM SILVA
  • BRUNO ALMEIDA PIMENTEL
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • ALMIR PEREIRA GUIMARAES
  • FILIPE MONTEZ COELHO MADEIRA
  • Data: 21/12/2023

  • Mostrar Resumo
  • A Informática na Saúde provê recursos para a geração, manutenção, e armazenamento dos
    dados vitais dos pacientes através de prontuários construídos a partir de sistemas. Este estudo
    aborda a lacuna identificada na literatura quanto ao suporte técnico aos médicos,
    especificamente para o fornecimento de sugestões medicamentosas para pacientes com quadro
    séptico de maneira automática e assistida pelo Machine Learning. Dentro da área da Saúde, a
    SEPSE se apresenta como um quadro clínico em que o tempo de resposta para esta condição é
    vital para o paciente. Se não tratada de maneira eficiente e eficaz, o paciente pode evoluir a
    óbito em menos de 24h. Neste contexto, o presente trabalho tem como ideia principal
    proporcionar um modelo de Machine Learning para predizer prescrição terapêutica de maneira
    automática para auxiliar o médico em sua tomada de decisão e personalizada para o paciente.
    Foram encontrados resultados satisfatórios nos modelos testados para a sugestão, muito embora
    não tenha sido possível validar sua eficiência e eficácia aplicando em pacientes reais, nesse
    momento. Vislumbramos que é um caminho potencialmente promissor e que pode gerar bons
    frutos, impactando principalmente na mitigação de óbitos decorrente de SEPSE


  • Mostrar Abstract
  • Health Informatics provides resources for the generation, maintenance, and storage of necessary
    patient data through medical records built from systems. This study addresses the identified gap
    in the literature regarding technical support for physicians, specifically for the automatic and
    Machine Learning-assisted provision of medication suggestions for patients with septic
    conditions. Within the Health area, SEPSE presents itself as a clinical condition in which the
    response time for this condition is vital for the patient. If not treated efficiently and effectively,
    the patient may die in less than 24 hours. In this context, the main idea of this work is to provide
    a Machine Learning model to automatically predict therapeutics to assist the doctor in their
    decision-making and personalized for the patient. Overwhelming results were found in the
    models tested for the suggestion, although it was not possible to validate its efficiency and
    effectiveness by applying it to real patients at this time. We see that it is a potentially promising
    path and that it can generate good results, mainly impacting the mitigation of deaths resulting
    from SEPSE

2022
Dissertações
1
  • LUIS FELIPE VIEIRA SILVA
  • UM CONTROLADOR FISIOLÓGICO DE GANHO VARIÁVEL PARA DISPOSITIVOS DE ASSISTÊNCIA VENTRICULAR

  • Orientador : THIAGO DAMASCENO CORDEIRO
  • MEMBROS DA BANCA :
  • ANTONIO MARCUS NOGUEIRA LIMA
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • THIAGO DAMASCENO CORDEIRO
  • Data: 11/02/2022

  • Mostrar Resumo
  • Este trabalho envolve projetar uma lei de controle adaptativo fisiológico para um dispositivo de assistência ventricular turbodinâmica (TVAD) usando um modelo variável no tempo de parâmetros concentrados que descreve o sistema cardiovascular. O TVAD é uma bomba de sangue rotativa acionada por um motor elétrico. A simulação do sistema também inclui o controlador de feedback adaptativo, que fornece um débito cardíaco fisiologicamente correto sob diferentes condições de pré-carga e pós-carga. O débito cardíaco é estimado a cada batimento cardíaco e o objetivo de controle é alcançado alterando dinamicamente a referência do controlador de velocidade do motor com base no erro da pressão sistólica. TVADs fornecem suporte para a circulação sanguínea em pacientes com insuficiência cardíaca. Diversas estratégias de controle foram desenvolvidas ao longo dos anos, com destaque para as fisiológicas, que adaptam seus parâmetros para melhorar a condição do paciente. Neste trabalho, uma nova estratégia é proposta utilizando um controlador fisiológico de ganho variável para manter o débito cardíaco em um valor de referência sob alterações tanto na pré-carga quanto na pós-carga. Modelos computacionais são usados para avaliar o desempenho desta técnica de controle, que tem apresentado melhores resultados de adaptabilidade do que controladores de velocidade constante e controladores de ganho constante.


  • Mostrar Abstract
  • This work involves designing a physiological adaptive control law for a turbodynamic ventricular assist device (TVAD) using a lumped parameter time-varying model that describes the cardiovascular system. The TVAD is a rotary blood pump driven by an electrical motor. The system simulation also includes the adaptive feedback controller, which provides a physiologically correct cardiac output under different preload and afterload conditions. The cardiac output is estimated at each heartbeat, and the control objective is achieved by dynamically changing the motor speed controller's reference based on the systolic pressure error. TVADs provide support for blood circulation in patients with heart failure. Several control strategies have been developed over the years, emphasizing the physiological ones, which adapt their parameters to improve the patient's condition. In this work, a new strategy is proposed using a variable gain physiological controller to keep the cardiac output in a reference value under changes in both preload and afterload. Computational models are used to evaluate the performance of this control technique, which has shown better adaptability results than constant speed controllers and constant gain controllers.

2
  • EDUARDO MORAES DE MIRANDA VASCONCELLOS
  • Classificação dos batimentos cardíacos a partir de sinais de eletrocardiograma usando uma rede neural convolucional siamesa

  • Orientador : THIAGO DAMASCENO CORDEIRO
  • MEMBROS DA BANCA :
  • FILIPE ROLIM CORDEIRO
  • BALDOINO FONSECA DOS SANTOS NETO
  • THIAGO DAMASCENO CORDEIRO
  • Data: 24/02/2022

  • Mostrar Resumo
  • O Eletrocardiograma ECG é um exame de baixo custo normalmente utilizado para diagnosticar anomalias no ciclo cardíaco tais como arritmias e problemas no músculo do coração. Com o avanço de técnicas de aprendizagem de máquina nos últimos anos, a classificação automática de ECGs despertou o interesse da comunidade científica. No entanto, o processo de anotar grandes e diversos conjuntos de dados para apoiar a formação de técnicas de aprendizagem de máquina ainda é muito demorado e susceptível de erros. Assim, técnicas que não requerem um grande e bem anotado conjunto de dados tornam-se ainda mais proeminentes. Isto significa que os dados subrepresentados nos conjuntos de dados ECG, como as raras perturbações cardiológicas, podem ser devidamente identificados e classificados.  Neste trabalho, é investigada a utilização de Redes Neurais Convolutivas Siamêsas, populares em problemas de classificação por imagem, para classificar batimentos cardíacos de ECGs de 12-Lead. Os primeiros resultados indicam uma precisão de até 95% num conjunto de dados públicos, utilizando modelos compostos por diferentes combinações de funções de semelhança e perda. Os resultados da classificação classe por classe são também comparados com os de métodos semelhantes encontrados na literatura, obtendo-se métricas no mesmo nível e até mesmo excedendo-as na classificação de algumas classes.


  • Mostrar Abstract
  • The Electrocardiogram (ECG) is a low-cost exam commonly used to diagnose abnormalities in the cardiac cycle, such as arrhythmias and problems in the heart’s muscle. With the advance of machine learning (ML) techniques in recent years, the automatic classification of ECG signals garnered interest in the scientific community. However, the process of annotating large and diverse datasets to support the training of ML techniques is still very time-consuming and error-prone. Thus, ML techniques whose training does not require large, well-annotated datasets are becoming even more prominent. This means that underrepresented data in ECG datasets, like rare cardiologic disturbs can still be properly identified and classified. In this work, the use of Siamese Convolutional Neural Networks, popular in imaging classification problems, to classify 12-Lead ECG heartbeats is investigated. The early results indicate the accuracy of up to 95% in a public dataset by using models composed of different combinations of similarity and loss functions. The class by class classification results are also compared with those of similar methods found in the literature, obtaining metrics on par and even exceeding them in the classification of some classes.

3
  • GLAUBER RODRIGUES LEITE
  • Framework de monitoramento persistente multiagente em ambientes marítimos

  • Orientador : HEITOR JUDISS SAVINO
  • MEMBROS DA BANCA :
  • ALLAN DE MEDEIROS MARTINS
  • HEITOR JUDISS SAVINO
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • THIAGO DAMASCENO CORDEIRO
  • Data: 28/02/2022

  • Mostrar Resumo
  • Monitorar o oceano de forma eficiente é essencial para planejar estratégias que permitem a manutenção da saúde do litoral. Isso fica evidente em cenários de desastre ambiental, como o derramamento de óleo reportado em 2019 que atingiu uma grande extensão da costa nordestina brasileira, trazendo consequências tanto ambientais quanto socioeconômicas para os locais afetados. O evento mostrou a necessidade de expansão da rede de monitoramento nacional, composta principalmente por boias marítimas, que são componentes estáticos ou passivos, nessa tarefa. Este trabalho propõe um \textit{framework} para sistema de monitoramento persistente com sensoriamento ativo, a partir de veículos autônomos colaborativos envolvidos em uma missão marítima. Esse sistema é capaz de gerenciar simulações de um processo de dispersão e sincronizar agentes em uma missão, trabalhando em uma política de patrulhamento.


  • Mostrar Abstract
  • Efficiently monitoring the ocean is essential to plan strategies that enable the health of the coast to be maintained. This is evident in environmental disaster scenarios, such as the oil spill reported in 2019 over a large stretch of the northeastern Brazilian coast, bringing environmental and socioeconomic consequences to the affected locations. The event showed the need to expand the national monitoring network, composed mainly of marine buoys, which are static or passive components in this task. This work proposes a framework for a persistent monitoring system with active sensing from autonomous collaborative vehicles involved in a maritime mission. This system manages simulations of a dispersion process and synchronizes agents on a mission, working on a patrol policy.

4
  • ARTHUR MONTEIRO ALVES MELO
  • Análise de dados da ambiência em Unidades de Terapia Intensiva

  • Orientador : ANDRE LUIZ LINS DE AQUINO
  • MEMBROS DA BANCA :
  • ANDRE LUIZ LINS DE AQUINO
  • BRUNO COSTA E SILVA NOGUEIRA
  • HEITOR SOARES RAMOS FILHO
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 11/03/2022

  • Mostrar Resumo
  • A Unidade de Terapia Intensiva é um ambiente essencialmente artificial, pois concentra pacientes criticamente enfermos, profissionais altamente especializados e equipamentos de ponta para diagnóstico, tratamento e monitorização contínuos. Sua dinâmica de funcionamento pode resultar em um ambiente pouco acolhedor, afetando a saúde, bem-estar e performance de seus ocupantes. 
    Variáveis ambientais são frequentemente relacionadas a diversos problemas de saúde, tais como: Exposição a altos níveis de ruído por longos períodos pode resultar em aumento da pressão arterial e frequência cardíaca, além de distúrbios auditivos; Iluminação inadequada pode provocar fadiga visual, cefaleia, distúrbios de sono e irritação;  A temperatura do ambiente associada à umidade relativa pode causar secura em pele, olhos e garganta; 
    Temperatura e umidade podem influenciar na proliferação de fungos, ácaros, vírus e bactérias. 
    Excesso de ruído e iluminação inadequada estão relacionados à perturbação do sono em pacientes internados em Unidades de Terapia Intensiva. Isto pode ocasionar disrupção no ciclo circadiano e, por fim, potencializar o surgimento de delirium: um estado grave de confusão mental que dificulta a recuperação do paciente, interfere no prognóstico e pode deixar sequelas cognitivas.
    Para os profissionais, o ambiente pode ser um amplificador dos níveis de estresse e fadiga, contribuindo com o desenvolvimento de sintomas da síndrome de Burnout. O prejuízo na performance pode levar ao aumento na taxa de erros e culminar em pior qualidade da assistência e prejuízo à segurança do paciente. 
    Além disso, a falta de controle sobre a temperatura e umidade do ar podem prejudicar desde o funcionamento de equipamentos até a qualidade de insumos. 
    Variáveis como ruído, iluminância, temperatura e umidade são raramente monitoradas em conjunto e de modo contínuo. Sem essas informações, dificilmente estabelecimentos hospitalares têm indicadores e protocolos eficazes para auxiliar na criação de um espaço produtivo, acolhedor e humano – cerne do modelo atual de gestão na saúde.
    Por isso, este trabalho apresenta um sistema embarcado de monitoramento de variáveis ambientais, a coleta e avaliação de dados captados em Unidades de Terapia Intensiva Adulta (UTI) e neonatal (UTIN). Consistindo esses dados de gravações de áudio e variáveis ambientais (ruído, luminosidade, temperatura e umidade).
    Para a avaliação dos dados foram usadas, além de métricas convencionais, a entropia clássica de Shannon, o EGCI (do inglês, Ecoacustic Global Complexity Index) e a DML (do inglês, distance metric learning).
    O monitoramento ocorreu em duas UTINs distintas e em uma UTI Adulta, que na época estava focada no tratamento dos pacientes com Covid-19.


  • Mostrar Abstract
  • The Intensive Care Unit is an essentially artificial environment, as it concentrates critically ill patients, highly specialized professionals and state-of-the-art equipment for continuous diagnosis, treatment and monitoring. Its operating dynamics can result in an unwelcoming environment, affecting the health, well-being and performance of its occupants.
    Environmental variables are often related to various health problems, such as: Exposure to high levels of noise for long periods can result in increased blood pressure and heart rate, in addition to hearing disorders; Inadequate lighting can cause eyestrain, headache, sleep disturbances and irritation; The ambient temperature associated with relative humidity can cause dryness of the skin, eyes and throat;
    Temperature and humidity can influence the proliferation of fungi, mites, viruses and bacteria.
    Excessive noise and inadequate lighting are related to sleep disturbance in patients admitted to Intensive Care Units. This can disrupt the circadian cycle and, ultimately, potentiate the emergence of delirium: a severe state of mental confusion that makes it difficult for the patient to recover, interferes with the prognosis and can leave cognitive sequelae.
    For professionals, the environment can be an amplifier of stress and fatigue levels, contributing to the development of symptoms of Burnout syndrome. Impaired performance can lead to an increase in the error rate and culminate in poorer quality of care and impaired patient safety.
    In addition, the lack of control over the temperature and humidity of the air can affect from the operation of equipment to the quality of inputs.
    Variables such as noise, illuminance, temperature and humidity are rarely monitored together and continuously. Without this information, hospitals hardly have indicators and effective protocols to help create a productive, welcoming and humane space – the core of the current health management model.
    Therefore, this work presents an embedded system for monitoring environmental variables, collecting and evaluating data captured in Adult Intensive Care Units (ICU) and neonatal (NICU). This data consists of audio recordings and environmental variables (noise, brightness, temperature and humidity).
    For the evaluation of the data, in addition to conventional metrics, Shannon's classical entropy, the EGCI (Ecoacustic Global Complexity Index) and the DML (distance metric learning) were used.
    Monitoring took place in two different NICUs and in an Adult ICU, which at the time was focused on treating patients with Covid-19.

5
  • MARCUS VINÍCIUS LIMA SANTOS
  • Detecção automática da camada epitelial da córnea a partir de imagens de Scheimpflug

  • Orientador : AYDANO PAMPONET MACHADO
  • MEMBROS DA BANCA :
  • AYDANO PAMPONET MACHADO
  • EDILEUZA VIRGINIO LEÃO
  • JOÃO MARCELO DE ALMEIDA GUSMÃO LYRA
  • MARCELO COSTA OLIVEIRA
  • Data: 30/05/2022

  • Mostrar Resumo
  • Objetivo: Identificar o epitélio de forma automatizada nas imagens obtidas pela câmera Scheimpflug.

    Métodos: Foram analisados 279 exames de córneas normais obtidas através das capturas realizadas pela câmera scheimpflug e o método proposto possui 4 etapas: Aquisição da imagem, identificação do epitélio, Isolamento das curvaturas de interesse e Avaliação e analise do epitélio.

    Resultados: Os algoritmos Canny, Zerocross e Log conseguiram detectar o epitélio na medida total as menores médias encontradas em ambas espessuras foram com os métodos log e zerocross com suas variações, que tiveram 79.74 μm, 79.85 μm e 80.38 μm na espessura normal e 65.91 μm, 66.08 μm e 67.25 μm na espessura pela distância euclidiana. Porém zerocross teve o menor número de imagens defeituosas e log teve mais de 50% das imagens da base com problemas. Na medida central as menores média encontradas em ambas espessuras também foram com os métodos log e zerocross com suas variações, que tiveram 75.50 μm, 75.58 μm e 75.75 μm na espessura normal e 61.61 μm, 61.70 μm e 62.04 μm na espessura pela distância euclidiana.

    Conclusão: Esse trabalho mostra que com as imagens da câmera scheimpflug e aplicando métodos de detecção de bordas clássicos conseguimos detectar o epitélio em córneas normais. Isso mostra que conseguimos coletar informações importantes das camadas córnea e que esse parâmetro pode agregar em qualquer equipamento que utilize a câmera scheimpflug


  • Mostrar Abstract
  • Objective: Automatic epithelium identification in Scheimpflug camera images.

    Methods: A dataset of 279 normal corneas exams, obtained through the captures performed by a Scheimpflug camera, was analyzed. The proposed method has 4 steps: image acquisition; epithelium identification; separation of the curvatures of interest; and valuation and analysis of the epithelium.

    Results: The Canny, Zerocross and Log algorithms were able to detect the epithelium in the total measure, and the lowest averages found in both thicknesses were with the log and zerocross methods with their variations. These measurements provided 79.74 μm, 79.85 μm, and 80.38 μm in the normal thickness and 65.91 μm, 66.08 μm, and 67.25 μm in thickness by Euclidean distance. However, the zerocross had the lowest number of defective images, and log had more than 50% of the base images with problems. In the central measure, the lowest averages found in both thicknesses were also with the log and zerocross methods with their variations, which had 75.50 μm, 75.58 μm and 75.75 μm in the normal thickness and 61.61 μm, 61.70 μm and 62.04 μm in the thickness by the Euclidean distance.

    Conclusion: This work shows that with the images of the Scheimpflug camera and applying classic edge detection methods we were able to detect the epithelium in normal corneas. This shows that we were able to collect important information from the corneal layers and that this parameter can be added to any equipment that uses the Scheimpflug camera.

6
  • JOSÉ IRINEU FERREIRA JÚNIOR
  • UMA SOLUÇÃO BASEADA EM SIMULAÇÃO PARA A VALIDAÇÃO DE SISTEMAS E AQUISIÇÃO DE SINAIS BIOMÉDICOS

  • Orientador : ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • MEMBROS DA BANCA :
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • LEANDRO DIAS DA SILVA
  • THIAGO DAMASCENO CORDEIRO
  • ANGELO PERKUSICH
  • ANTONIO MARCUS NOGUEIRA LIMA
  • Data: 29/06/2022

  • Mostrar Resumo
  • Sistemas de aquisição de sinais biomédicos são indispensáveis para o monitoramento e diagnóstico de pacientes. Por isso, devem estar em conformidade com normas reguladoras vigentes e passar por manutenção periódica, conforme as exigências presentes em resoluções normativas do Ministério da Saúde e da Agência Nacional de Vigilância Sanitária. Neste sentido, o objetivo com este trabalho é definir uma abordagem confiável, baseada em simulação, para auxiliar fabricantes, órgãos validadores e unidades de saúde (em um contexto de manutenção) na validação de múltiplos equipamentos ou sistemas de aquisição de sinais biomédicos. A abordagem proposta é constituída de duas partes que se complementam: software, representada por uma aplicação em um dispositivo de computação (por exemplo, notebook); e hardware, representada por um dispositivo Transceptor de Sinais Biomédicos (TSB). Para validar o software e o dispositivo TSB desenvolvidos, são considerados sinais característicos gerados digitalmente e sinais biomédicos reais de seres humanos obtidos da plataforma PhysioNet. Além disso, são realizados testes comparativos com dois equipamentos de ECG comerciais devidamente certificados e aprovados.


  • Mostrar Abstract
  • Biomedical signal acquisition systems are relevant for patient monitoring and diagnosis. Therefore, such systems must comply with current regulatory standards and undergo periodic maintenance, in accordance with the requirements defined in normative resolutions of the Ministry of Health and the National Health Surveillance Agency. Thus, the objective of this work is to define a reliable simulation-based approach to assist manufacturers, validation agencies, and healthcare facilities (in a maintenance context) in the validation of multiple equipment or biomedical signal acquisition systems. The proposed approach consists of two parts that complement each other: software, represented by an application on a computing device (e.g., notebook); and hardware, represented by a Biomedical Signal Transceiver (BST) device. To validate the developed software and BST device, digitally generated characteristic signals and real biomedical signals from human beings obtained from the PhysioNet platform are considered. Besides, comparative testing are performed with two properly certified and approved commercial ECG systems.

7
  • TÁSSIO FERNANDES COSTA
  • Uma Abordagem Baseada em Modelos para Avaliação da
    Qualidade de Sistemas de Bomba de Infusão de Insulina

  • Orientador : ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • MEMBROS DA BANCA :
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • LEANDRO DIAS DA SILVA
  • LEONARDO MELO DE MEDEIROS
  • ANGELO PERKUSICH
  • Lenardo Chaves e Silva
  • Data: 29/06/2022

  • Mostrar Resumo
  • Segurança e eficácia são atributos de qualidade cruciais para
    sistemas de bomba de infusão de insulina. Portanto, as
    agências reguladoras exigem a avaliação da qualidade e
    aprovação de tais sistemas antes do mercado para diminuir o
    risco de danos, motivando o uso de uma abordagem baseada
    em modelos (Model-Based Approach - MBA) formais para
    melhorar a qualidade. No entanto, usar um MBA formal
    aumenta os custos e o tempo de desenvolvimento porque exige
    conhecimento especializado e análises minuciosas de
    comportamentos. O objetivo com este trabalho é auxiliar a
    avaliação de qualidade de tais sistemas de forma econômica e
    eficiente em termos de tempo, fornecendo artefatos de projeto
    reutilizáveis, aplicando a abordagem proposta (nomeada MBA
    com CPN - MBA/CPN). Foi definida uma abordagem baseada
    em Redes de Petri Coloridas e um estudo de caso sobre um
    sistema de bomba de infusão de insulina comercial para
    verificar e validar um modelo de referência (como um
    componente de MBA/CPN), descrevendo cenários de avaliação
    de qualidade. Também foi realizada uma avaliação empírica
    para verificar a produtividade e reutilização dos modeladores ao
    usar o modelo de referência. Tal modelo é relevante para
    raciocinar sobre comportamentos e avaliação de qualidade de
    tais sistemas concorrentes e complexos. Durante a avaliação
    empírica, utilizando o modelo de referência, 66,7% dos 12
    modeladores entrevistados declararam nenhum esforço, 

    enquanto 8,3%, esforço baixo, 16,7% esforço médio e 8,3%
    esforço considerável. Com base no conhecimento dos
    modeladores, foi implementado um aplicativo baseado na web
    para auxiliá-los na reutilização da abordagem proposta,
    possibilitando o treinamento baseado em simulação. Embora
    um número reduzido de modeladores tenha experimentado a
    abordagem, tal avaliação forneceu insights para melhorar o
    MBA/CPN. Dada a avaliação empírica e os resultados do
    estudo de caso, o MBA/CPN mostrou-se relevante para avaliar
    a qualidade de sistemas de bombas de infusão de insulina.


  • Mostrar Abstract
  • Safety and effectiveness are crucial quality attributes for insulin
    infusion pump systems. Therefore, regulatory agencies require
    the quality evaluation and approval of such systems before the
    market to decrease the risk of harm, motivating the usage of a
    formal Model-Based Approach (MBA) to improve quality.
    Nevertheless, using a formal MBA increases costs and
    development time because it requires expert knowledge and
    thorough analyses of behaviors. We aim to assist the quality
    evaluation of such systems in a cost-effective and time-efficient
    manner, providing re-usable project artifacts by applying our
    proposed approach (named MBA with CPN - MBA/CPN). We
    defined a Coloured Petri nets MBA and a case study on a
    commercial insulin infusion pump system to verify and validate a
    reference model (as a component of MBA/CPN), describing
    quality assessment scenarios. We also conducted an empirical
    evaluation to verify the productivity and reusability of modelers
    when using the reference model. Such a model is relevant to
    reason about behaviors and quality evaluation of such
    concurrent and complex systems. During the empirical
    evaluation, using the reference model, 66.7% of the 12
    interviewed modelers stated no effort, while 8.3%, stated low
    effort, 16.7% medium effort, and 8.3% considerable effort.
    Based on the modelers` knowledge, we implemented a web-
    based application to assist them in re-using our proposed
    approach, enabling simulation-based training. Although a
    reduced number of modelers experimented with our approach,
    such an evaluation provided insights to improve the MBA/CPN.
    Given the empirical evaluation and the case study results,
    MBA/CPN showed to be relevant to assess the quality of insulin
    infusion pump systems.

8
  • GIANCARLO LIMA TORRES
  • UMA ABORDAGEM DE CIÊNCIA DE DADOS EM UMA ANÁLISE SOCIOECONÔMICA DE PREÇOS PARA VIAGENS DE TRANSPORTE POR APLICATIVO UBER

  • Orientador : BRUNO ALMEIDA PIMENTEL
  • MEMBROS DA BANCA :
  • BRUNO ALMEIDA PIMENTEL
  • EVANDRO DE BARROS COSTA
  • RAFAEL DE AMORIM SILVA
  • DIEGO CARVALHO DO NASCIMENTO
  • Data: 17/08/2022

  • Mostrar Resumo
  • Estudos que utilizam dados da empresa de transporte por aplicativo Uber evidenciaram que o tempo e a distância estão relacionados ao processo de precificação de seu serviço de viagens, possibilitando melhorar as estratégias de oferta e demanda. Entretanto, esse processo pode apresentar outros fatores que contribuam na concepção desses preços. Nesse sentido, esta pesquisa tem como objetivo analisar rotas de viagens de usuários de baixa renda e contribuir para a redução dos preços dessas viagens no transporte por aplicativo Uber. Para isso, buscouse responder: Se um centro financeiro estivesse mais próximo de bairros economicamente mais pobres, haveria mudança nos preços médios dessas viagens? Essa mudança poderia melhorar financeiramente a vida das pessoas de baixa renda? Foi observado que, para uma determinada região, se o centro financeiro não estiver concentrado em bairros de alta renda, seria possível reduzir os preços das viagens em cerca de 43,07% para usuários de bairros de baixa renda. Essa redução representaria uma economia mensal de cerca de 18,82% de sua renda. Para usuários que vivem em bairros ricos (alta renda), essa descentralização aumentaria os custos de viagem para pouco mais de 100%. No entanto, esse aumento representaria 6,71% de suas rendas. Considerando duas regiões, evidenciou-se um aumento no preço médio dessas viagens, confirmando uma tendência de aumento de preço quando o destino de uma viagem é um centro financeiro. Por conta disso, foi proposto uma nova funcionalidade no serviço de viagens Uber para dar mais liberdade ao usuário. Essa funcionalidade seria a escolha de uma viagem utilizando uma oferta de preço em que o aplicativo retorna as melhores distâncias com base no preço ofertado. Foram criados modelos de predição de distância para atingir esse objetivo, utilizando algoritmos regressores em que o modelo Random Forest apresentou um Coeficiente Médio de Determinação de 94%.


  • Mostrar Abstract
  • Studies using data from the transport company Uber showed that time and distance are related to the pricing process of its travel service, making it possible to improve supply and demand strategies. However, this process may present other factors that contribute to the design of these prices. This research aims to analyze the travel routes of low-income users and contribute to reducing the prices of these trips in transport by the Uber app. For this, we seek to answer: If a financial center were closer to economically poorer neighborhoods, would there be a change in average prices? Could this change financially improve the lives of low-income people? We observed that, for a given region, if the financial center is not concentrated in high-income neighborhoods, it would be possible to reduce travel prices by about 43.07% for users in lowincome neighborhoods. This reduction would represent a monthly savings of around 18.82% of their income. For users living in wealthy (high-income) neighborhoods, this decentralization would increase travel costs to just over 100%. However, this increase would represent 6.71% of their income. For two regions, an increase in the average price of these trips was evidenced, confirming a trend of price increase when the destination of a trip is a financial center. Because of this, we proposed a new functionality in the Uber travel service to give more freedom to the user. This functionality would be the choice of a trip using a price bid in which the application returns the best distances based on the offered price. We created distance prediction models to achieve this objective, using regressor algorithms in which the Random Forest model presented an average coefficient of determination of 94%. 

9
  • FLÁVIO OSCAR HAHN
  • Framework baseado em modelos de otimização para o agendamento de pessoal durante eventos pandêmicos

  • Orientador : RIAN GABRIEL SANTOS PINHEIRO
  • MEMBROS DA BANCA :
  • ANAND SUBRAMANIAN
  • BRUNO COSTA E SILVA NOGUEIRA
  • ERICK DE ANDRADE BARBOZA
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 23/08/2022

  • Mostrar Resumo
  • Nos últimos anos, as empresas foram obrigadas a se adaptar às novas diretrizes e estratégias para prevenir e reduzir a transmissão do COVID-19 no local de trabalho. Um dos principais desafios nesta adaptação é gerir eficazmente a jornada de trabalho de forma a reduzir o contacto social. Este trabalho apresenta uma estrutura abrangente de otimização para planejar automaticamente os horários dos funcionários (equipe) durante eventos de pandemia. Nosso framework usa programação linear inteira para definir um conjunto de restrições gerais que podem ser usadas para representar vários tipos de restrições de distanciamento e diferentes funções objetivo. Para usar o framework, uma empresa deve simplesmente instanciar um subconjunto dessas restrições com uma função objetivo (de acordo com suas prioridades). Testamos nossa estrutura de agendamento em três empresas reais diferentes, e os resultados mostram que nossa abordagem é capaz de melhorar o número de trabalhadores presenciais em 15%, atendendo às restrições de distanciamento social das empresas.


  • Mostrar Abstract

  • In the recent years, companies were forced to adapt to the new guidelines and strategies to prevent and reduce transmission of COVID-19 in the workplace.
    One of the main challenges in this adaptation is to effectively manage the workday schedule in order to reduce social contact.
    This work presents a comprehensive optimization framework for automatically planning employee (staff) schedules during pandemic events.
    Our framework uses integer linear programming for defining a set of general constraints that can be used to represent several types of distancing restrictions and different objective functions.
    To use the framework, a company must simply instantiate a subset of these constraints with an objective function (according to its priorities).
    We tested our scheduling framework in three different real-life companies, and the results show that our approach is able to improve the number of in-person workers by 15\% while attending the companies social distance restrictions.

10
  • MARCOS VINÍCIUS SILVA BENTO
  • Proposta e Avaliação de um Modelo de Prognóstico para Pacientes com Septicemia 

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • RAFAEL DE AMORIM SILVA
  • BRUNO ALMEIDA PIMENTEL
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • ALMIR PEREIRA GUIMARAES
  • Data: 26/08/2022

  • Mostrar Resumo
  • Septicemia ou SEPSE é uma doença infecciosa que possui uma alta taxa de mortalidade, afetando principalmente pessoas que possuam uma imunidade relativamente baixa tais como recém nascidos, gestantes e idosos, além de ser desenvolvida a partir de contaminações, seja por contato, pelo ar ou hospitalar. Tal mortalidade está diretamente ligada ao tempo que se leva para diagnosticar esta doença e realizar seu respectivo tratamento. Sendo assim, o diagnóstico tardio permite que a doença atinja seu ápice e cause uma falência múltipla nos órgãos de uma pessoa. Além disso, acertar o tratamento inicial dessa enfermidade infere na diminuição do risco de morte dos pacientes acometidos com essa doença.  Este trabalho apresenta um modelo supervisionado para o prognóstico de pacientes que possuem sintomas de Sepses. A proposta consiste na elaboração de modelos de aprendizagem de máquina no intuito de obter uma predição no prognóstico de SEPSE a partir de dados coletados no monitoramento dos pacientes internados em UTI, através de dados disponilizados no PhysioNet - eICU Collaborative Research Database.


  • Mostrar Abstract
  • Septicemia or SEPSE is an infectious disease that has a high mortality rate, mainly affecting those who had a relatively low immunity such as newborns, pregnant women and the elderly, in addition to being developed from contamination, either by contact, by air or hospital, high in mortality is directly linked to the time it takes to diagnose this disease and its treatment. Thus, the diagnosis allowed the disease and his health to cause an electronic automation in a person's devices. In addition, correcting the initial treatment of this disease infers a reduction in the risk of death for patients with this disease. This presents a supervised model for the preventive work of patients who present symptoms of sepsis. The machine consists of building learning learning models without predicting a prediction in EPSE data prediction from data obtained in models - and monitoring available internal ICU data from internal collaboration data available on PhysioNet.

11
  • MAXWELL ESDRA ACIOLI SILVA
  • Proposta e Avaliação de um Modelo Híbrido de Seleção de Características para o Prognóstico do Câncer de Mama

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • ALMIR PEREIRA GUIMARAES
  • BRUNO ALMEIDA PIMENTEL
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • RAFAEL DE AMORIM SILVA
  • Data: 26/08/2022

  • Mostrar Resumo
  • A tecnologia de Inteligência Artificial tem sido fundamental no papel do cuidado à saúde da sociedade. Ela vem sendo amplamente utilizada nos diversos ramos da medicina. Uma de suas principais aplicações é no contexto do prognóstico da doença de câncer de mama. O câncer é considerado como a segunda maior causa de mortes decorrentes de doenças no mundo. Neste contexto, destaca-se o câncer de mama, que é considerado a maior ocorrência de câncer entre as mulheres no mundo. Um dos principais desafios neste cenário é identificar quais são as características mais relevantes no desenvolvimento deste tipo de neoplasia por um paciente. Este tipo de filtro é realizado pelos métodos de seleção de características. Este trabalho apresenta um modelo híbrido de seleção de características que deve ser utilizado por clínicos de um paciente, a fim de realizar uma predição de recorrência do câncer de mama.


  • Mostrar Abstract
  • Artificial Intelligence technology has been instrumental in the role of health care in society. It has been used in several branches of medicine. One of its main applications is in the context of the prognosis of breast cancer disease. Cancer is considered to be the second leading cause of death from disease in the world. In this context, breast cancer stands out, which is considered the highest occurrence of cancer among women in the world. One of the main challenges in this scenario is to identify which are the most relevant characteristics in the development of this type of neoplasia by a patient. This type of filter is carried out using the characteristic selection methods. This work presents a hybrid model of selection of characteristics, which is used by the patient's clinicians, in order to make a prediction of breast cancer recurrence.

12
  • NAELSON DOUGLAS CIRILO OLIVEIRA
  • LINT-BASED WARNINGS IN PYTHON CODE: FREQUENCY, AWARENESS, AND REFACTORING

  • Orientador : MARCIO DE MEDEIROS RIBEIRO
  • MEMBROS DA BANCA :
  • MARCIO DE MEDEIROS RIBEIRO
  • BALDOINO FONSECA DOS SANTOS NETO
  • ROHIT GHEYI
  • Data: 29/08/2022

  • Mostrar Resumo
  • Python é uma linguagem de programação dinâmica e é caracterizada tanto por sua simplicidade quanto por sua curva de aprendizado fácil. Tais características renderam a ela uma abrangente adoção tanto na indústria quanto na academia. A linguagem possui um conjunto próprio de boas práticas as quais devem ser respeitadas de modo a otimizar métricas de qualidade como a legibilidade, segurança, capacidade de manutenção do código e entre outros. Uma abordagem consolidada para a detecção de situações de não respeito a estas boas práticas é o uso de ferramentas de linting. Feita a detecção, a ferramenta gera uma notificação em formato de warning para, permitindo que em sequência o mantenedor do código possa realizar a devida refatoração para aplicar a boa prática faltante. O contexto focado neste trabalho é o de warnings de Python gerados por linting, mais especificamente investigamos três diferentes aspectos: o quão comum eles são em aplicações Python reais; a percepção de desenvolvedores sobre o tema; e a refatoração destes warnings. Para cobrir este tópico conduzimos três diferentes estudos: no primeiro, analisamos 1.119 repositórios públicos de Python no Github e caracterizamos a existência de seis diferentes tipos de warnings nestes repositórios. Também conduzimos uma pesquisa com desenvolvedores Python de 18 diferentes países sobre o tema de modo a coletar o nível de percepção de qualidade deles sobre códigos Python escritos com warning contra suas versões refatoradas. Em sequência refatoramos warnings detectados em 55 repositórios públicos e submetemos pull requests com as correções para em seguida analisarmos a taxa de aceitabilidade destas correções. Nossos resultados mostram que 39% dos 1.119 projetos têm pelo menos um warning baseado em lint. Depois de analisar os dados da pesquisa, também mostramos que os desenvolvedores preferem código Python sem warnings baseados em lint. Em relação aos pull requests, alcançamos uma taxa de aceitação de 71,8%. Finalmente, implementamos uma ferramenta capaz de refatorar os warnings analisados neste trabalho de forma automatizada, removendo assim do mantenedor a responsabilidade de manualmente realizar as correções detectadas por linters.


  • Mostrar Abstract
  • Python is a dynamic programming language characterized both by its simplicity and easy learning curve. Such characteristics rendered it to a broad adoption level both in industry and academy. The language has a set of good practices which should be followed to optimize quality software metrics such as readability, security, code maintainability and others. A consolidated approach for the detection of these situations where the good practices are not being followed is the use of linting tools. In the case where the linting tool detects a good practice deviation, it notifies the code maintainer using the language warning mechanism. Thereafter the code maintainer is able to perform the needed refactoring to the warning. This work focuses on the context of lint-based Python warnings, more specifically we investigate three different aspects: how frequent they are in real Python applications. The perception of developers on the subject. And the refactorings of these warnings.In order to cover this topic we conduct three different studies: on the first we analyze 1,119 public open source Python repositories on Github and we characterize the existence of these six warnings on them. We also conducted a survey with Python developers from 18 different countries asking them about their perception of Python code with warnings versus a refactored version of the same code.  Thereafter we refactored warnings detected among 55 different public open source repositories and submitted a pull request fixing them. Afterwards we were able to analyze the acceptability rate of these pull requests by the repositories maintainers. Our results show that 39% of the 1,119 projects have at least one lint-based warning. After analyzing the survey data, we also show that developers prefer Python code without lint-based warnings. Regarding the pull requests, we achieve a 71.8% of acceptance rate. Finally, we implemented a tool able to automatically apply refactorings to the selected warnings and which removes from the code maintainer the responsibility of manually refactoring the warnings.

13
  • VICTOR GABRIEL LIMA HOLANDA
  • PROPOSTA E AVALIAÇÃO DE UM MODELO PARA PREDIÇÃO DA MORBIDADE E MORTALIDADE EM PACIENTES DIAGNOSTICADOS COM TAQUICARDIA VENTRICULAR

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • RAFAEL DE AMORIM SILVA
  • BRUNO ALMEIDA PIMENTEL
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • ALMIR PEREIRA GUIMARAES
  • Data: 29/08/2022

  • Mostrar Resumo
  • Segundo a Organização Mundial de Saúde, as doenças cardíacas são a principal causa de morte no mundo. Milhares de pessoas morrem todos os anos devido a complicações causadas por este tipo de doença. Neste sentido, os cardiologistas procuram um diagnóstico precoce, impedindo que a doença atinja a fase patológica (ou seja, as fases em que as limitações surgem e se tornam cada vez maiores para os seus portadores). No contexto das arritmias do tipo taquicardia, os pacientes precisam de adoptar o uso contínuo de medicamentos e mudar hábitos para reduzir o impacto causado por este tipo de doença, proporcionando assim uma vida mais saudável. Assim, este estudo propõe e avalia um modelo prognóstico para as arritmias que combina informação relativa ao estilo de vida do paciente, comorbilidades e estado geral de saúde para prever a morbilidade e mortalidade em pacientes diagnosticados com taquicardia. O modelo proposto utiliza como parâmetros a pontuação CHA2DS2-VASc, os dados clínicos e os hábitos do paciente que, juntamente com a utilização de SVM (Support Vector Machines) e KNN (K vizinhas mais próximas) é capaz de classificar o grau de morbilidade e estimar a perspectiva de vida. Desta forma, o médico tem acesso a informações que devem ajudar na tomada de decisão sobre os passos que serão dados no tratamento desse paciente, o que pode envolver mudanças na medicação e nas dosagens, níveis de rigidez com os hábitos, e em casos críticos a intervenção cirúrgica, visando sempre prolongar a longevidade do paciente.


  • Mostrar Abstract
  • According to the World Health Organization, heart disease is the leading cause of death in the world. Thousands of people die every year due to complications caused by this type of disease. In this sense, cardiologists seek early diagnosis, preventing the disease from reaching the pathological phase (i.e. the stages where limitations arise and become increasingly greater for its carriers). In the context of tachycardia-type arrhythmias, patients need to adopt the continuous use of medication and change habits to reduce the impact caused by this type of disease, thus providing a healthier life. Therefore, this study proposes and evaluates a prognostic model for arrhythmias that combines information regarding the patient's lifestyle, comorbidities and general health status to predict morbidity and mortality in patients diagnosed with tachycardia. The proposed model uses as parameters the CHA2DS2-VASc score, the clinical data and the patient's habits that, together with the use of SVM (Support Vector Machines) and KNN (K nearest neighbors) is able to classify the degree of morbidity and estimate the life perspective. In this way, the physician has access to information that should help in the decision making about the steps that will be taken in the treatment of that patient, which may involve changes in medication and dosages, levels of rigidity with habits, and in critical cases surgical intervention, always aiming to extend the patient's longevity.

14
  • FABIANO SANTOS CONRADO
  • Proposta e Avaliação de um Modelo de Prognóstico para Pacientes com Câncer de Pâncreas 

  • Orientador : RAFAEL DE AMORIM SILVA
  • MEMBROS DA BANCA :
  • ALMIR PEREIRA GUIMARAES
  • BRUNO ALMEIDA PIMENTEL
  • RAFAEL DE AMORIM SILVA
  • Data: 29/08/2022

  • Mostrar Resumo
  • Câncer de Pâncreas(CP), é difícil de diagnostico prévio, pois, evolui de maneira silenciosa, sem apresentar sinais específicos e tem uma baixa resposta a maioria dos tratamentos. A taxa de sobrevida global em 5 anos é de 7% após serem diagnosticados, tendo uma maior sobrevida aqueles pacientes que não apresentam doença metastática. Esta baixa taxa eleva o paciente a questionar o tempo que ainda tem de vida, quando mais acurado for o calculo de sobrevida, mais precisa será a resposta e será possível ao médico prescrever o tratamento paliativo mais adequado. O Classificação de Tumores Malignos(TNM) tem sido a métrica mais comum para responder a essa questão, porém insuficiente. Esta pesquisa propõe e avalia um modelo de prognostico para CP que combina informações referentes ao estilo de vida do paciente, suas comorbidades e seu estado geral de saúde para predizer o tempo de mortalidade em pacientes diagnosticados com CP. Para isso, foram usados dados de vários centros combinados com simulação de dados, e técnicas de ML com uso de KNN/SVM para correta classificação e previsão de sobrevida. Os resultados apontam para uma cálculo probabilístico com maior precisão no cálculo se comparado ao método tradicional de uso exclusivo do TNM.


  • Mostrar Abstract
  • Pancreas Cancer (PC) is difficult to diagnose beforehand, because it evolves silently, without showing specific signs and has a low response to most treatments. The overall 5-year survival rate is 7\% after being diagnosed, with a higher survival rate for patients who do not have metastatic disease. This low rate leads the patient to question how much time he has left to live, the more accurate the survival calculation, the more accurate the answer, allowing the doctor to prescribe the most appropriate palliative treatment.The Classification of Malignant Tumours (TNM) has been the most common metric to answer this question, but it is insufficient. This research proposed and evaluated a prognosis model for PC that combines information regarding the patient's lifestyle, their comorbidities and their general health status to predict the time of mortality in patients diagnosed with PC. For this, data from several centers were used combined with data simulation, and ML techniques using KNN/SVM for correct classification and survival prediction. The results point to a probabilistic calculation with greater precision in the calculation compared to the traditional method of exclusive use of TNM.

15
  • CÁSSIO AQUINO ROCHA
  • FORMULAÇÃO MATEMÁTICA PARA OTIMIZAÇÃO DE ITINERÁRIOS TURÍSTICOS: UMA APLICAÇÃO EM ALAGOAS

  • Orientador : BRUNO COSTA E SILVA NOGUEIRA
  • MEMBROS DA BANCA :
  • BRUNO COSTA E SILVA NOGUEIRA
  • BRUNO ALMEIDA PIMENTEL
  • RIAN GABRIEL SANTOS PINHEIRO
  • EDUARDO VIEIRA QUEIROGA
  • Data: 30/08/2022

  • Mostrar Resumo
  • Este trabalho propõe um método exato para o Problema de Orientação com Seleção de Hotéis e Janelas de Tempo (OPHS-TW) e utiliza-lo no contexto de Alagoas. No OPHS-TW, são dados um conjunto de vértices com pontuação e janelas de tempo, e um conjunto de hotéis. O objetivo é determinar um número fixo de viagens conectadas que visitam alguns vértices e maximizar a soma das pontuações coletadas. Até onde sabemos, este é o primeiro método exato para OPHS-TW. Nosso modelo exato foi desenvolvido usando Programação Linear Inteira (ILP). Experimentos computacionais realizados em instâncias do OPHS-TW encontrados na literatura mostram que nosso método exato para o OPHS-TW é capaz de provar vários ótimos anteriormente desconhecidos. Nosso algoritmo encontrou 33 soluções desconhecidas da literatura. Dessas soluções desconhecidas, 32 foram comprovadas como ótimas. No total, 357 soluções provaram ser ótimas.


  • Mostrar Abstract
  • This work proposes an exact method for the Orientation Problem with Hotel Selection and Time Windows (OPHS-TW) and uses it in the context of Alagoas. In OPHS-TW, a set of vertices with scores and time windows are given, and a set of hotels. The objective is to determine a fixed number of connected trips that visit some vertices and maximize the sum of the collected scores. As far as we know, this is the first exact method for OPHS-TW. Our exact model was developed using Integer Linear Programming (ILP). Computational experiments performed on OPHS TW instances found in the literature show that our exact method for OPHS-TW is capable of proving several previously unknown optima. Our algorithm found 33 unknown solutions from the literature. Of these unknown solutions, 32 were proven to be optimal. In total, 357 solutions proved to be optimal.

16
  • WILLIAN VICTOR DA SILVA
  • Um Método para desambiguação em língua portuguesa, integrado ao processo de tradução do Sistema Falibras

  • Orientador : PATRICK HENRIQUE DA SILVA BRITO
  • MEMBROS DA BANCA :
  • JOSÉ MARIO DE MARTINO
  • EVANDRO DE BARROS COSTA
  • PATRICK HENRIQUE DA SILVA BRITO
  • Data: 30/08/2022

  • Mostrar Resumo
  • Há no mundo mais de 1 bilhão de pessoas com algum tipo de deficiência. No Brasil, essa realidade corresponde a cerca de 23,9% dos 190 milhões de brasileiros; entre estes 9,8 milhões têm alguma deficiência auditiva. A surdez dificulta consideravelmente a interação social, uma vez que inibe o indivíduo de se comunicar através da via oral-auditiva. Esses problemas de comunicação costumam prejudicar consideravelmente a interação dos alunos surdos com colegas ouvintes, prejudicando o processo de integração social. Para facilitar a comunicação entre pessoas surdas e ouvintes, ferramentas de tradução automática Português-Libras podem ser utilizadas. Porém, de acordo com relatos na literatura, cerca de 75% da comunidade surda se sente insatisfeita com a tradução das ferramentas existentes e dentre as principais causas dessa insatisfação estão o uso de sinais inadequados para palavras com ambiguidade semântica (e.g., direito, público). Neste trabalho é proposto o aperfeiçoamento do módulo de tradução do Sistema Falibras, com o objetivo de melhorar a qualidade da tradução no tocante às críticas observadas na literatura. Os principais objetivos do projeto proposto são: (1) conhecer o estado da arte no tocante à resolução de ambiguidades em língua portuguesa; e (2) combinar as técnicas existentes para desenvolver um módulo de resolução de ambiguidades para o Falibras. A avaliação dos resultados considerou métricas quanti-qualitativas de acurácia, de forma comparativa com trabalhos existentes na literatura. A avaliação foi conduzida baseada no modelo Goal-Question-Metric e os resultados são promissores.


  • Mostrar Abstract
  • There are more than 1 billion people in the world with some type of disability. In Brazil, this reality corresponds to about 23.9% of the 190 million Brazilians; among these 9.6 million have some hearing impairment. Deafness makes social interaction considerably more difficult, since it inhibits the individual from communicating through the oral-auditory pathway. These communication problems usually impair considerably the interaction of deaf students with fellow listeners, impairing the process of social integration. To facilitate communication between deaf people and listeners, Portuguese-Libras machine translation tools can be used. However, according to reports in the literature, about 75% of the deaf community feels dissatisfied with the translation of the existing tools and among the main causes of this dissatisfaction are the use of inappropriate signs for words with semantic ambiguity (eg, law, public ). In this work, the improvement of the Falibras System translation module is proposed, with the objective of improving the quality of the translation with respect to the criticisms observed in the literature. The main objectives of the proposed project are: (1) to know the state of the art regarding the resolution of ambiguities in Portuguese; and (2) combining existing techniques to develop an ambiguity resolution module for Falibras. The evaluation of the results must consider both the use of computational resources, as well as qualitative metrics of precision and recall, in a comparative way with existing works in the literature. The evaluation will be conducted based on the Goal-Question-Metric model.

17
  • FLAVIO VASCONCELOS PAIS
  • AVALIAÇÃO DE DESEMPENHO DE TRÁFEGO URBANO USANDO SIMULAÇÃO - ESTUDO DE CASO EM MACEIÓ/AL

  • Orientador : BRUNO COSTA E SILVA NOGUEIRA
  • MEMBROS DA BANCA :
  • BRUNO COSTA E SILVA NOGUEIRA
  • ANDRE LUIZ LINS DE AQUINO
  • RIAN GABRIEL SANTOS PINHEIRO
  • EDUARDO ANTÔNIO GUIMARÃES TAVARES
  • Data: 31/08/2022

  • Mostrar Resumo
  • As metrópoles da América Latina vêm enfrentando graves problemas de congestionamento de trânsito em consequência do rápido crescimento populacional, aumento do número de veículos e ineficiência das políticas públicas. A maioria das cidades não possui sistema de controle de tráfego urbano em tempo real para otimizar o fluxo de veículos. Nesse contexto, a utilização de modelos de otimização de tráfego urbano surge como uma alternativa de baixo custo para avaliar diversos problemas e promover possíveis melhorias. Por meio do Simulador de Mobilidade Urbana (SUMO), este artigo propõe um novo modelo de simulação de tráfego urbano para uma via proeminente da cidade de Maceió, Alagoas, Brasil. A via escolhida foi a avenida Fernandes Lima, por representar um dos mais importantes corredores viários da cidade. O modelo proposto permite entender o comportamento do fluxo de veículos da via, que possui peculiaridades como a faixa azul (exclusiva para o transporte coletivo) e três trechos com semáforos de pedestre. A validação do modelo proposto foi feita considerando dados obtidos a partir de observações reais e os resultados indicam que o modelo é capaz de prover estimativas com erros menores que 5% relacionados ao volume de tráfego de veículos nas interseções semafóricas e menores que 10% relacionados ao tempo médio de viagem total dos veículos que percorrem toda a avenida. Por fim, a análise dos resultados experimentais demonstra que é possível utilizar o modelo proposto para aplicar possíveis intervenções na via, como a remoção dos semáforos de pedestre e da faixa azul, resultando no aumento do fluxo dos veículos, redução do tempo de viagem, consumo de combustíveis e emissão de gás carbônico.


  • Mostrar Abstract
  • Latin American metropolises have been facing serious traffic congestion problems as a result of rapid population growth, increasing vehicle numbers and inefficient public policies. Most cities do not have a real-time urban traffic control system to optimize the flow of vehicles. In this context, the use of urban traffic optimization models appears as a low cost alternative to evaluate several problems and promote possible improvements. Through the Urban Mobility Simulator (SUMO), this paper proposes a new urban traffic simulation model for a prominent road in the city of Maceió, Alagoas, Brazil. The chosen road was Fernandes Lima Avenue, as it represents one of the most important road corridors of the city. The proposed model allows understanding the behavior of the vehicle flow on the road, which has peculiarities such as the blue lane (exclusive for public transportation) and three sections with pedestrian traffic lights. The validation of the proposed model was done considering data obtained from real observations. The results indicate that the model is capable of providing estimates with errors smaller than 5% related to the volume of vehicle traffic at signalized intersections and smaller than 10% related to the total average travel time of vehicles traveling along the entire avenue. Finally, the analysis of the experimental results shows that it is possible to use the proposed model to apply possible interventions on the street, such as the removal of the pedestrian signals and the blue stripe, resulting in an increase in vehicle flow, reduction of travel time, fuel consumption, and carbon dioxide emissions.

18
  • MARCOS ANTONIO BARBOSA LIMA
  • Modelo de Minimização de Entropia da Informação Aplicado à Compressão de Dados Digitais

  • Orientador : LEANDRO MELO DE SALES
  • MEMBROS DA BANCA :
  • LEANDRO MELO DE SALES
  • EVANDRO DE BARROS COSTA
  • JOSEANA MACEDO FECHINE
  • Data: 31/08/2022

  • Mostrar Resumo
  • Neste trabalho são apresentados os resultados da avaliação experimental de um modelo proposto de minimização de entropia da informação em processos de compressão de dados digitais. Durante a pesquisa foram analisados modelos matemáticos e alfabetos utilizados em codificação de dados digitais. A abordagem adotada foi a codificação de dados digitais em estrutura geométrica totalmente simétrica no espaço. Na execução dos experimentos, foram monitorados diversos aspectos relacionados ao processo de codificação de dados, como esforço computacional, taxa de compressão, entropia inicial e final. Como resultado deste trabalho, constatou-se a eficácia do modelo de redução de entropia de dados, o qual reduz a zero a incerteza de informações em aglomerados de dados digitais. Desta forma, os processos de codificação resultantes deste modelo terão como saída uma quantidade constante de dados, independentemente do tamanho dos conjuntos de origem e permitem a decodificação sem perdas de dados, reduzindo assim a entropia da informação a níveis próximos a zero.


  • Mostrar Abstract
  • Acoustic levitation is a method that allows the manipulation of materials without solid contact through sound radiation. Its use has several advantages in the handling of chemical compounds, biological samples and in the manufacture of microelectronic devices. The handling of these materials represents a great challenge, due to their dimensions and sensitivity to heat and electromagnetic interference. Devices for linear material transport enable the displacement of particles vertically or horizontally, through arrangements of Langevin transducers at one end and a reflector or transducer at the other. Thus, the capture of the particle occurs at the nodal points of the resulting standing wave and its movement occurs through the modulation of the amplitude of the vibrations of the transducers. Newer devices allow the capture of particles and their displacement in three dimensions simultaneously, as well as their translation and rotation. In this approach, the point in the space where you want to levitate a particle is used as an input to an optimization algorithm, the results of which represent the phase delays in a matrix of Langevin
    transducers and the resulting acoustic traps. This work aims to model a particle transport device in three dimensions, using a matrix of transducers of 16mm in diameter and 40KHz frequency, controlled by a computer system on a web platform. In this computer system, the coordinates for the acoustic levitation points are previously calculated and stored, allowing a greater speed
    of actuation of the actuators on the levitated particles. As a means of integration between the system and the transducer matrix, Raspberry Pi and Arduino Mega 2560 boards are used, which convert the values previously stored in the control system database into phase delays in the transducer matrix. As a result, the particle transport control is obtained remotely, enabling the decentralization of the tests, with actuators and control systems in different locations, using a data network for this. Additionally, optimization based on BRKGA Meta-heuristics is used, replacing the classic BFGS algorithm to optimize phase delays, thus reducing the time required for the development of computer systems.

19
  • JOAO LUIZ ALVES OLIVEIRA
  • Otimização do sistema de transporte público utilizando algoritmo genético enviesado de chaves aleatórias

  • Orientador : BRUNO COSTA E SILVA NOGUEIRA
  • MEMBROS DA BANCA :
  • BRUNO COSTA E SILVA NOGUEIRA
  • ANDRE LUIZ LINS DE AQUINO
  • RIAN GABRIEL SANTOS PINHEIRO
  • GUSTAVO RAU DE ALMEIDA CALLOU
  • Data: 14/09/2022

  • Mostrar Resumo
  • A economia de uma cidade ou região é diretamente proporcional à eficiência do seu sistema de transporte público. O planejamento de um sistema de transporte público depende de diversos fatores como modais de transporte, demandas de origem-destino, qualidade e confiabilidade desse serviço, custos operacionais, entre outros. Essas características levam a problemas muito complexos, como projeto de rede e configuração de frequência de veículos. É comum o uso de heurísticas, como algoritmo genético, para resolver tais problemas em casos de dados reais, pois estes possuem grandes instâncias. Nesse contexto, o presente trabalho propõe uma metodologia de otimização, utilizando biased random-key genetic algorithms, para um sistema de transporte público de ônibus considerando dois viés: (i) qualidade do serviço, minimizando o tempo de espera dos passageiros; (ii) análise econômica para a empresa concessionária, minimizando o custo operacional. Assim, esta metodologia é aplicada em um estudo de caso com dados de transporte de ônibus de Maceió para propor dois cenários de frequências com desempenho superior a 10% do real em ambas análises mencionadas. Por fim, trabalhos futuros podem ser realizados para desenvolver otimizações multi-objetivo para encontrar soluções que abrangem ambas análises.


  • Mostrar Abstract
  • The economy of a city or region is directly proportional to its public transport system efficiency. Planning of a public transport system depends on several factors such as transport modals, origin-destination demands, quality and reliability of this service, operational costs, among others. These features leads to very complex problems like network design and vehicles frequency setting. It is usual to use heuristics, like genetic algorithm, to solve such problems in real data cases since these has large instances. In this context, present work focus to propose an optimization methodology, using biased random-key genetic algorithms, for a public bus transport system considering two aspects: (i) service quality, by minimizing passengers waiting time; (ii) economic analysis to the concessionary company, by minimizing operational cost. Thus, this methodology is applied in a case study with Maceió bus transport data to propose two frequencies scenarios that performs over 10% better than actual one in both aforesaid aspects. Finally, futures jobs would be done in order to develop multi-objective optimizations to find compound solutions.

20
  • FILIPE FALCAO BATISTA DOS SANTOS
  • ASSESSING THE RELIABILITY OF MACHINE LEARNING
    CLOUD SERVICES THROUGH FAULT INJECTION

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • BALDOINO FONSECA DOS SANTOS NETO
  • MARCELO COSTA OLIVEIRA
  • MARCIO DE MEDEIROS RIBEIRO
  • ROHIT GHEYI
  • Data: 23/09/2022

  • Mostrar Resumo
  • A crescente quantidade de dados públicos e privados gerados a partir de diferentes fontes de dados aumentou o interesse por tecnologias capazes de extrair conhecimento útil de grandes coleções de dados, geralmente não estruturadas. As técnicas de aprendizado de máquina (AM) têm sido empregadas com sucesso para esse propósito tanto pela academia quanto pela indústria de software. No entanto, construir sistemas de AM pode ser difícil, uma vez que uma grande quantidade de dados de treinamento e recursos computacionais caros são frequentemente necessários. Além disso, as tecnologias de aprendizado de máquina têm uma curva de aprendizado íngreme. Essas dificuldades levaram à popularização dos serviços em nuvem de AM, onde os usuários podem realizar tarefas de AM simplesmente enviando seus dados para um provedor de serviços por meio de APIs. No entanto, poucas pesquisas abordaram o efeito de falhas de dados típicas na confiabilidade dos sistemas de aprendizado de máquina. Tais falhas podem ter origem nos aplicativos que dependem dos serviços de AM, sendo causadas por falhas de hardware ou de conexão, bugs, comportamento indefinido. Como consequência, essas falhas podem ser refletidas nos dados produzidos por tais aplicativos e enviados para os serviços de aprendizado de máquina. Buscando avaliar a confiabilidade de serviços em nuvem de aprendizado de máquina, este trabalho apresenta a proposta de um estudo sobre a injeção de falhas de dados comuns nos dados de entrada passados para um conjunto de serviços comerciais de AM.


  • Mostrar Abstract
  • The growing amount of public and private data generated from different data sources has increased the interest on technologies capable of extracting useful knowledge from large, usually unstructured, collections of data. Machine Learning (ML) techniques have been successfully employed for that purpose by both the academia and the software industry. However, building ML systems can be difficult, since a massive amount of training data and expensive computational resources are often required. Also, machine learning technologies have a steep learning curve. Those difficulties led to the popularization of ML cloud services, where users are able to perform ML tasks by simply sending their data to a cloud provider over APIs. However, little research has addressed the effect of typical data faults on the dependability of machine learning systems. Such faults may originate on the applications that rely on ML cloud services, being caused by hardware or connection failures, bugs, undefined behavior. As a consequence, those faults can be reflected on the data produced by such applications and sent to the machine learning services. Seeking to evaluate the dependability of machine learning cloud services, this work presents the proposal of a study on the injection of common data faults into the input data passed to a set of commercial ML services.

21
  • BRENO FELIX DE SOUSA
  • Estereótipos Sexuais, Expectativa de Desempenho e Experiência de Fluxo em Sistemas de Tutoria Gamificados: Uma Perspectiva LGBTQIAP+

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • GEISER CHALCO CHALLCO
  • IG IBERT BITTENCOURT SANTANA PINTO
  • LEOGILDO ALVES FREIRES
  • TELMA LOW SILVA JUNQUEIRA
  • Data: 08/12/2022

  • Mostrar Resumo
  • A educação em Statistic, Technology, Engineering and Mathematics (STEM) é permeada por
    uma tradicional cultura cis-heteronormativa que dita quem permanece a estes espaços e
    quem será a evasão nesses cursos. Existe a Ideia de que a heteronormatividade é o status
    quo padrão e tudo o que foge disso é tido como grupos minorizados em STEM. A literatura
    apresentada evidencia a importância deste trabalho, ao passo que também mostra com
    teorias e quasi-experimentos essas supões existentes em ambientes tradicionais de ensino
    em STEM, como sala de aula e em ambientes virtuais de ensino. STEM em seu modelo de
    ensino e inclusão atual continua a perpetuar essa tradição não inclusiva. O uso de tecnologias
    educacionais está cada vez mais presente em sala de aula, principalmente em um cenário
    atual em que a educação remota se faz tão necessária. Neste sentido, surge a gamificação
    como uma alternativa poderosa capaz de propiciar ambientes virtuais de ensino. Gamificação
    pode ser entendida como a utilização de conceitos de jogos em ambientes de não jogos, é a
    utilização de conceitos, técnicas, formas, métodos, elementos e variáveis características de
    jogos que podem ser utilizadas no desenvolvimento de um ambiente de ensino. A utilização da
    gamificação em ambientes educacionais pode ser uma alternativa para viabilizar um ensino
    à distância eficaz. A gamificação em ambientes virtuais de ensino pode ser considerada
    uma técnica poderosa de interação de estudantes e professores com o ambiente de ensino. A
    preocupação com o ensino e aprendizado não é recente, na literatura é fácil encontrar estudos
    relacionados a essa preocupação. A gamificação pode replicar estereótipos tradicionalmente
    convencionalizados em STEM, quando os elementos de gamificação como cores, frases,
    avatares, efeitos sonoros e outros são aplicados de forma correta contribui positivamente para
    o aprendizado, ao passo que, quando desenhados sem uma análise contextual-cultural pode
    reafirmar estereótipos de ambientes tradicionais em ambientes gamificados. Tecnologias
    gamificadas e estereotipadas podem impactar diretamente no desempenho de estudantes,
    interferindo na aprendizagem e até mesmo na sua evolução no ensino. Neste contexto, este
    estudo apresentou e identificou efeitos de estereótipos em ambientes gamificados de ensino e
    sua relação com a experiência de fluxo, expectativa de desempenho e desempenho de grupos
    minorizados socialmente como lésbicas, gays, bissexuais, travestis, homens transexuais,
    queer, intersexo, asexuais, pansexuais, mais diversidade (LGBTQIAP+) em cursos STEM.

    Para isso, é apresentada uma revisão sistemática seguida de uma metanálise, um quasi-
    experimento e um estudo qualitativo. Desta forma, portanto, esse estudo contribui para

    a compreensão do impacto que estereótipos sexuais em ambientes gamificados têm no
    desempenho de estudantes. Espera-se que com os resultados desta pesquisa possa também
    contribuir para uma melhor inclusão da diversidade sexual.


  • Mostrar Abstract
  • Education in Statistic, Technology, Engineering and Mathematics (STEM) is permeated by
    a traditional cis-heteronormative culture that dictates who stays in these spaces and who
    will evade these courses. There is the idea that heteronormativity is the default status quo
    and everything that deviates from it is seen as minority groups in STEM. The literature
    presented in this dissertation confirms these statements and highlights the importance of this
    work, while also showing with theories and quasi-experiments these assumptions existing
    in traditional STEM teaching environments, such as the classroom and in virtual teaching
    environments. STEM in its current teaching and inclusion model continues to perpetuate
    this non-inclusive tradition. The use of educational technologies is increasingly present
    in the classroom, especially in a current scenario where remote education is so necessary.
    In this sense, gamification emerges as a powerful alternative capable of providing virtual
    teaching environments. Gamification can be understood as the use of game concepts in
    non-game environments, it is the use of concepts, techniques, forms, methods, elements
    and variables characteristic of games that can be used in the development of a teaching
    environment. The use of gamification in educational environments can be an alternative
    to enable effective distance learning. Gamification in virtual teaching environments can be
    considered a powerful technique for students and teachers to interact with the teaching
    environment. The concern with teaching and learning is not recent, in the literature it is easy
    to find studies related to this concern. Gamification can replicate stereotypes traditionally
    conventionalized in STEM, when gamification elements such as colors, phrases, avatars,
    sound effects and others are applied correctly, it contributes positively to learning, while,
    when designed without a contextual-cultural analysis, it can reaffirm stereotypes of traditional
    environments in gamified environments. Gamified and stereotyped technologies can directly
    impact student performance, interfering with learning and even their evolution in teaching. In
    this context, this study presented and identified the effects of stereotypes in gamified teaching
    environments and their relationship with the flow experience, performance expectation and
    performance of socially minorized groups such as lesbians, gays, bisexuals, transvestites,
    transgender men, queer, intersex, asexuals, pansexuals, more diversity (LGBTQIAP+) in
    STEM courses. For this, a systematic review is presented followed by a meta-analysis, a
    quasi-experiment and a qualitative study. In this way, therefore, this study contributes to
    the understanding of the impact that sexual stereotypes in gamified environments have on
    student performance. It is hoped that the results of this research can also contribute to a
    better inclusion of sexual diversity.

22
  • JESSICA FERNANDA SILVA BARBOSA
  • Estereótipos de Gênero, Pensamento Negativo e Experiência de Fluxo em Tecnologias Digitais Educativas Gamificadas

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • GEISER CHALCO CHALLCO
  • IG IBERT BITTENCOURT SANTANA PINTO
  • LEONARDO BRANDAO MARQUES
  • Data: 08/12/2022

  • Mostrar Resumo
  • A utilização da gamificação dentro da sala de aula, tornou-se uma alternativa muito atrativa em tecnologias digitais educativas, visando tornar atividades de aprendizagem entediantes em atividades engajadoras, entretanto sua utilização nem sempre traz os resultados esperados. Entre os fatores que podem afetar negativamente a aprendizagem em tecnologias digitais gamificadas, a estereotipação de gênero é uma delas, a qual pode diminuir o desempenho do aluno ou ainda despertar interferência cognitivas no indivíduo tais como pensamento negativo. Nesse sentido, o estudante ao invés de direcionar esforço e concentração nas atividades de aprendizagem, ele é direcionado para pensamentos que os desconcentram e fazem cair seu desempenho. Nesse sentido, este estudo visa identificar e analisar os efeitos do estereótipo de gênero na experiência de fluxo (estado de total imersão almejado por todo ambiente educativo), pensamento negativo em tecnologias digitais gamificadas. Para isso, serão realizadas revisões sistemáticas da literatura (meta-análises) e condução de estudos quasi-experimentais. Revisões sistemáticas possibilitam obter um panorama geral de como estereótipos e gamificação afetam nos pensamentos negativos, experiência de fluxo e a aprendizagem. Estudos quasi-experimentais de tipo quantitativo e qualitativo serão conduzidos visando explicar os efeitos observados de estereótipo em tecnologias digitais gamificadas. Desta forma as contribuições deste estudo visam fornecer evidências se estereótipos de gênero em tecnologias digitais gamificadas podem causar pensamentos negativos, se eles afetam a experiência de fluxo e se eles contribuem num desempenho ruim da aprendizagem dos alunos. Almejamos também, identificar se existe um gênero que possa ser mais afetado pelo estereótipo e compreender as causas desses efeitos. Esses resultados esperam contribuir na geração de diretrizes, recomendações e práticas das adaptações e implementações de tecnologia digital gamificadas sem ameaça de estereótipo, tecnologia mais justa e tecnologia que promova a equidade de gênero.


  • Mostrar Abstract
  • Using gamification in classrooms has become an interesting attractive alternative in educational digital technologies, with the objective convert tedious learning activities into engaging ones. Nonetheless, its use sometimes fails to bring the expected results. Stereotyping is between the factors that may negatively affect learning in gamified digital technologies, thus hindering student performance or even inducing cognitive interference in the individual, such as negative thinking. Under these circumstances, instead of directing effort and concentration in learning activities, students are conducted to disperse leading to a performance drop. Considering this possibility, the present study aims to identify and analyze effects of gender stereotypes on the flow experience, negative thinking and learning performance in gamified digital technologies. In order to achieve this goal, systematic literature reviews and quasi-experimental studies will be conducted. The former may provide an overview of how stereotypes and gamification effects over negative thinking, flow experience and learning performance, whilst the latter will be conducted in order to try to explain consequences of gender stereotyping in gamified digital technologies. Therefore, this study has the potential to provide evidence of stereotypes’ influence in gamified digital technologies: either leading to negative thoughts, affecting the flow experience and contributing to poor learning performances. Furthermore, we aim to identify if a gender is more affected by stereotyping and list possible causes of these effects. Results expected may be able to contribute to develop guidelines, advices and practices adapted to avoid the stereotype threat while implementing gamified digital technologies, seeking equitable environments and promoting gender equity

23
  • FRANCYS RAFAEL DO NASCIMENTO MARTINS
  • Estereótipos de Gênero, Autoeficácia e Experiência de Fluxo em Ambientes Educacionais Online Gamificados

  • Orientador : IG IBERT BITTENCOURT SANTANA PINTO
  • MEMBROS DA BANCA :
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • GEISER CHALCO CHALLCO
  • IG IBERT BITTENCOURT SANTANA PINTO
  • LEONARDO BRANDAO MARQUES
  • Data: 08/12/2022

  • Mostrar Resumo
  • O uso da gamificação vem sendo amplamente estudado nos últimos anos, em particular quando
    ela é utilizada como intervenção para aumento de motivação e engajamento em cenários
    educativos. Mesmo tendo-se evidências de que a gamificação causa impactos positivos, também
    existem estudos que apontam problemas na sua aplicação. Em alguns casos, resultados positivos
    não são alcançados por influência de diversos fatores, um deles é a da ameaça de estereótipo
    de gênero, a qual pode impactar no nível de autoeficácia do estudante e no desempenho na
    aprendizagem. Isto ocorre porque a autoeficácia é o sentimento de se sentir com a capacidade
    de atingir as metas. Assim, quando determinada tarefa é proposta e o indivíduo não acredita ter
    as capacidades necessárias em sua execução, o êxito na conclusão da tarefa é fraco. Tal fator,
    influencia no desempenho da aprendizagem, podendo causar impactos negativos. Por exemplo, o
    estereótipo de que homens têm mais habilidade em matemática pode influenciar negativamente
    em algumas mulheres fazendo com que elas tenham uma percepção de autoeficácia muito
    baixa, causando problemas na aprendizagem, mesmo que as atividades sejam realizadas em
    um ambiente gamificado. Assim, nesta dissertação nosso objetivo é identificar e explicar como
    estereótipos de gênero impactam na autoeficácia, na experiência de fluxo (estado de total
    imersão almejado em cenários educativos) e no desempenho da aprendizagem dos estudantes
    em ambientes educacionais online gamificados. Para isso, será realizada uma revisão sistemática
    da literatura (metanálise) e condução de estudos quasi-experimentais. A revisão sistemáticas
    possibilitará a obtenção de um panorama geral de como estereótipos de gênero e gamificação afetam a autoeficácia, experiência de fluxo e desempenho da aprendizagem. Os estudos quasi-experimentais de tipo quantitativo e qualitativo serão conduzidos para identificar e explicaros efeitos causados pelo estereótipo de gênero em ambientes educacionais online gamificados.

    Desta forma almejamos fornecer evidências no referido a se estereótipos de gênero afetam
    a experiência de fluxo, se eles afetam a autoeficácia e se eles contribuem num desempenho
    ruim de aprendizagem dos alunos. Como resultado também esperamos identificar se existe um
    gênero que possa ser mais afetado pelo estereótipo e compreender as causas desses efeitos.
    Essas evidências irão contribuir na geração de diretrizes, recomendações e práticas que resultem
    em adaptações e implementações de ambientes educacionais online gamificados sem ameaça
    de estereótipo, a elaboração de ambientes mais justos e que promovam a equidade de gênero.


  • Mostrar Abstract
  • The use of gamification has been widely studied in recent years, particularly when it is used
    as an intervention to increase motivation and engagement in educational settings. Even with
    evidence that gamification causes positive impacts, there are also studies that point to problems
    in its application. In some cases, positive results are not achieved due to the influence of several
    factors, one of which is the threat of gender stereotyping, which can impact the student’s level
    of self-efficacy and performance in learning. This is because self-efficacy is the feeling of having
    the ability to achieve goals. Thus, when a given task is proposed and the individual does not
    believe he has the necessary capabilities to perform it, success in completing the task is weak.
    This factor influences the learning performance and can cause negative impacts. For example,
    the stereotype that men are more skilled in math can negatively influence some women, causing
    them to have a very low perception of self-efficacy, causing problems in learning, even if the
    activities are carried out in a gamified environment. Thus, in this dissertation, our objective is
    to identify and explain how gender stereotypes impact on self-efficacy, on the flow experience (a
    state of total immersion desired in educational settings) and on student learning performance in
    gamified online educational environments. For this, systematic literature review (meta-analysis)
    and quasi-experimental studies will be conducted. The systematic reviews provided an overview
    of how gender stereotypes and gamification affect self-efficacy, flow experience and learning
    performance. Quantitative and qualitative quasi-experimental studies will be conducted to
    identify and explain the effects caused by gender stereotyping in gamified online educational
    environments. Thus, we aim to provide evidence regarding whether gender stereotypes affect
    the flow experience, whether they affect self-efficacy and whether they contribute to poor
    student learning performance. As a result, we also hope to identify if there is a gender that
    might be more affected by stereotype and understand the causes of these effects. This evidence
    will contribute to the generation of guidelines, recommendations and practices that result in
    adaptations and implementations of gamified online educational environments without the
    threat of stereotyping, the creation of fairer environments that promote gender equity.

2021
Dissertações
1
  • BRUNO GEORGEVICH FERREIRA
  • Novo Modelo de Rede Neural para Detecção de Objetos Aplicado à Inspeção Industrial
  • Orientador : TIAGO FIGUEIREDO VIEIRA
  • MEMBROS DA BANCA :
  • DOUGLAS CEDRIM OLIVEIRA
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • TIAGO FIGUEIREDO VIEIRA
  • Data: 23/04/2021

  • Mostrar Resumo
  • Em muitas indústrias, a montagem de componentes específicos para serem inseridos em um  recipiente de plástico é um procedimento manual. Cada kit deve ser composto por peças específicas seguindo uma receita pré-definida, que pode ser atualizada ao longo do tempo. Kits montados de forma inadequada causam retrabalho, reduzindo a qualidade e o tempo de produção. Aqui propomos melhorias em um modelo de detecção de objetos, capaz de realizar uma inspeção de qualidade, incrementando as funcionalidades do Few-Shot Object Detection (FSOD) baseado no modelo OS2D, previamente proposto na literatura. O modelo OS2D apresenta limitações ao tentar detectar objetos de aspect ratio que não se encaixam nas âncoras predeterminadas. Além disso, ele também tem um mecanismo de inferência que o restringe a apenas uma imagem de referência para cada classe, dificultando a detecção de objetos mais complexo, que se apresentam diferentes para cada ângulo. Dessa forma, foi proposto o modelo OS2D aprimorado (OS2D+) incorporando camadas de distorção e correção e modificando sua estratégia de inferência para facilitar a utilização de múltiplas imagens referências por componente. Para que seja possível avaliar os resultados da solução OS2D+, desenvolveu-se também uma outra solução baseada em processamento de imagens (PIMG), para que os resultados das duas sejam comparados. Foram propostas as camadas de distorção e correção, que compõem à solução OS2D+, permitindo que a mesma possa detectar ojetos cujo aspect ratio não se enquadre em nenhuma âncora de detecção do modelo OS2D. O mecanismo de inferência do modelo OS2D também foi modificado, buscando viabilizar a inferência de múltiplas imagens de referência, para cada componente de um kit. Por fim, a solução OS2D+ proposta se mostrou mais robusta que a PIMG, detectando menos falsos positivos e negativos, além de apresentar um tempo de inferência menor. Entretanto, a solução PIMG foi capaz de fornecer melhores estimações de bounding boxes (BB), devido ao eu processo de proposição de localizações. Apesar disso, a solução OS2D+ apresenta potencial para ter estimações equivalentes à PIMG, sendo necessário um ajuste fino em seus parâmetros. Também foi construída uma base de dados composta de 111 fotos, que descrevem cinco kits diferentes e seus respectivos componentes. Essa base de dados foi anotada e utilizada para mensurar os resultados das duas soluções propostas.

  • Mostrar Abstract
  • In many industries, assembling specific components to be inserted into a plastic container is a manual procedure. Each kit must be comprised of specific parts following a pre-defined recipe, which can be updated throughout time. Kits assembled inadequately cause rework, reducing production quality and time. Here we propose improvements in an object detection model, capable of performing a quality inspection, increasing the features of Few-Shot Object Detection (FSOD) based on the OS2D model, previously proposed in the literature. The OS2D model has limitations when trying to detect objects of aspect ratio that do not fit the predetermined anchors. In addition, it also has an inference mechanism that restricts it to only one reference image for each class, making it difficult to detect more complex objects, which are different for each angle. Bearing in mind this, the improved OS2D model (OS2D+) was proposed, incorporating layers of distortion and correction and modifying its inference strategy to facilitate the use of multiple reference images per component. In order to be able to evaluate the results of the OS2D+ solution, a image processing based solution (PIMG) was also developed, so the results of both solutions can be compared. The distortion and correction layers of the OS2D+ solution allowing it to detect objects whose aspect ratio does not fit into any OS2D detection anchor. The inference mechanism of the OS2D model has also been modified, seeking to enable the inference of multiple reference images to a kit component. Finally, the proposed OS2D+ solution proved to be more robust than PIMG, detecting fewer false positives and negatives, in addition to presenting a shorter inference time. However, the PIMG solution was able to provide better bounding boxes (BB) estimations due to its process of proposing locations. Despite this, the OS2D+ solution has the potential to have equivalent estimations, requiring a fine adjustment in its parameters. A database composed of 111 photos was also built, describing five different kits and their respective components. This database was annotated and used to measure the results of the two proposed solutions.
2
  • GUSTAVO COSTA GOMES DE MELO
  • SISTEMA DE BAIXO CUSTO PARA O MONITORAMENTO CLIMÁTICO E DA MINI OU MICROGERAÇÃO FOTOVOLTAICA

  • Orientador : ERICK DE ANDRADE BARBOZA
  • MEMBROS DA BANCA :
  • MAURICIO BELTRAO DE ROSSITER CORREA
  • BRUNO COSTA E SILVA NOGUEIRA
  • ERICK DE ANDRADE BARBOZA
  • Data: 28/04/2021

  • Mostrar Resumo
  • Um dos maiores desafios de um sistema fotovoltaico é o monitoramento confiável e em tempo real da sua geração de energia e das variáveis climáticas em que está submetido. O monitoramento permite estimar com precisão o desempenho do sistema fotovoltaico e detectar falhas que podem causar danos ao próprio sistema e a rede de distribuição elétrica ao qual está conectado. Os sistemas de monitoramento comerciais geralmente são caros e não medem todos os parâmetros necessários para um monitoramento completo do sistema fotovoltaico. Este trabalho propõe um sistema de aquisição de dados de baixo custo, com alta taxa de amostragem e com capacidade de monitorar sete variáveis meteorológicas, além da tensão e corrente gerada por sistemas de micro e minigeração fotovoltaica. Uma comparação do sistema proposto com uma estação meteorológica comercial mostrou uma alta similaridade nas medições. Contudo, o sistema proposto apresenta uma maior frequência de amostragem e menor custo, ao se considerar o mesmo conjunto de variáveis meteorológicas.


  • Mostrar Abstract
  • The share of renewable energies in electricity generation has been growing worldwide. Monitoring and acquiring data is essential to recognize the renewable resources available on-site, evaluate the efficiency of electrical conversion, detect failures and optimize electrical production. Commercial monitoring systems for the photovoltaic system are generally expensive and closed for modifications. This work proposes a low-cost real-time IoT system, for micro and mini photovoltaic generation systems, that can monitor DC voltage, DC current, AC power, and seven meteorological variables. The proposed system measures all the relevant meteorological variables, it measures PV generation variables directly from the plant (not from the inverter) it is implemented using open software, connects with the internet without cables, storages data locally and in the cloud, and uses Network Time Protocol (NTP) to synchronize the devices' clocks. To the best of our knowledge, no work reported in the literature presents these features altogether. Besides, experiments carried out with the proposed system showed good effectiveness and reliability. This system enables the use of fog and cloud computing in a photovoltaic system, and the creation of a time series measurements dataset, which enables the use of machine learning to create smart photovoltaic systems.

3
  • ADRIANO DA SILVA ARAÚJO
  • ESPECIFICAÇÃO E ANÁLISE DE UM MECANISMO DE CONTROLE DE ADMISSÃO BIDIRECIONAL PARA PROTOCOLOS DE ROTEAMENTO OPORTUNÍSTICO EM REDES AD HOC SEM FIO

  • Orientador : LEANDRO DIAS DA SILVA
  • MEMBROS DA BANCA :
  • LEANDRO DIAS DA SILVA
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • IVO AUGUSTO ANDRADE ROCHA CALADO
  • RAFAEL DE AMORIM SILVA
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • Data: 30/04/2021

  • Mostrar Resumo
  • Redes Ad Hoc sem fio são um tipo de rede que caracteriza-se pela ausência de um gerenciador central das comunicações, de modo que todos os dispositivos/nós da rede funcionamcomo se fossem um retransmissor/roteador, encaminhando comunitariamente os pacotes (fluxos de dados) que vêm de dispositivos vizinhos com o objetivo de alcançar o destino. Dentro deste contexto, várias abordagens de encaminhamento/roteamento de pacotes foram propostas na literatura. Uma delas é o Roteamento Oportunístico (RO). No RO, todos oscaminhos da origem ao destino são considerados para o encaminhamento de pacotes de dados o que aumenta a probabilidade dos dados serem entregues em relação ao que ocorre no roteamento tradicional em que apenas uma rota das disponíveis é utilizada. Entretanto, no ambiente de RO em redes Ad Hoc sem fio, atender os requisitos de Qualidade de Serviço (QoS) das aplicações não é uma tarefa fácil. Faz-se necessário observar elementos importantes como acurácia, perda de pacotes,throughput, jitter e delay. O Controle de Admissão (CA) é um dos mecanismos propostos pelos pesquisadores da área para atender os requisitos de QoS em ambientes de redes Ad Hoc sem fio e assim garantir que novos fluxos só serão admitidos se houver recursos disponíveis. Para este trabalho, consideramos que a comunicação sem fio é inerentemente sujeita a interferências e que em um cenário de fluxo de dados bidirecional o fluxo de volta tende a interferir no fluxo de ida. Isto posto, propomos desenvolver um modelo, validar formalmente, realizar a simulação de redes em diferentes cenários e, por fim, avaliar um mecanismo de controle de admissão que leve em consideração os fluxos de dados em ambas as direções para protocolos de roteamento oportunístico em redes Ad Hoc sem fio.


  • Mostrar Abstract
  • Abstract

4
  • MARIO DIEGO FERREIRA DOS SANTOS
  • Estudo comparativo sobre meta-heurísticas em GPU para clusterização de dados

  • Orientador : BRUNO COSTA E SILVA NOGUEIRA
  • MEMBROS DA BANCA :
  • BRUNO COSTA E SILVA NOGUEIRA
  • ERICK DE ANDRADE BARBOZA
  • RIAN GABRIEL SANTOS PINHEIRO
  • ERMESON CARNEIRO DE ANDRADE
  • Data: 30/04/2021

  • Mostrar Resumo
  • Clusterização é uma classe fundamental de problemas com inúmeras aplicações em muitas áreas do conhecimento, incluindo: bioinformática, visão computacional, mineração de dados, mineração de texto e agrupamento de páginas na Web. Dado um conjunto de n objetos, a clusterização objetiva agrupar automaticamente tais objetos em k grupos, geralmente disjuntos, denominados clusters ou agrupamentos utilizando uma medida de similaridade preestabelecida. Problemas de clusterização em geral têm alta complexidade computacional e envolvem uma grande quantidade de dados de entrada. Dessa forma, o uso de arquiteturas paralelas como Graphics Processing Units (GPUs) são alternativas interessante para acelerar o processo de clusterização. Neste trabalho, conduzimos um estudo comparativo de meta-heurísticas aceleradas por GPU para agrupamento de dados. Três meta-heurísticas populacionais foram implementadas na GPU: Particle Swarm Optimization (PSO), Differential Evolution (DE) e Scatter Search (SS). A implementação dessas meta-heurísticas foi dividida em duas partes: a parte independente do problema e a parte dependente problema. A parte independente do problema se refere aos operadores de seleção, reposição e combinação de cada meta-heurística, enquanto que a parte dependente se refere a função objetivo. A parte independente foi implementada usando o framework libCudaOptimize, e a parte dependente foi criada transformando o problema clusterização em um problema de otimização global sujeito a restrições de caixa. As meta-heurísticas propostas foram comparadas com o melhor algoritmo de clusterização da atualidade considerando eficiência do tempo de execução e a qualidade da solução. Os resultados indicam que o PSO baseado em GPU (GPU-PSO) obteve os melhores resultados em comparação com as outras meta-heurísticas baseadas em GPU e o melhor método da atualidade. Além disso, nossa implementação em GPU da função objetivo obteve um speedup médio de 175x sobre a versão sequencial. Esses resultados demonstram que uma abordagem de GPU para o problema de clusterização é muito promissora.


  • Mostrar Abstract
  • Clustering is a fundamental class of problems with numerous applications in many areas of knowledge, including: bioinformatics, computer vision, data mining, text mining, and web page grouping. Given a set of n objects, clustering aims to automatically group such objects in k groups, usually disjunct, called clusters or groupings using a pre-established similarity measure. Clustering problems in general have high computational complexity and involve a large amount of input data. Thus, the use of parallel architectures such as Graphics Processing Units (GPUs) is interesting alternatives to accelerate the clustering process. In this work, we conducted a comparative study of GPU-accelerated metaheuristics for grouping data. Three population meta-heuristics were implemented in the GPU: Particle Swarm Optimization (PSO), Differential Evolution (DE), and Scatter Search (SS). The implementation of these meta-heuristics was divided into two parts: the independent part of the problem and the dependent part of the problem. The independent part of the problem refers to the selection, replacement, and combination operators for each meta-heuristic, while the dependent part refers to the objective function. The independent part was implemented using the libCudaOptimize framework, and the dependent part was created by transforming the clustering problem into a global optimization problem subject to cash constraints. The proposed meta-heuristics were compared with the best current clustering algorithm considering the efficiency of the execution time and the quality of the solution. The results indicate that the GPU-based PSO (GPU-PSO) obtained the best results in comparison with the other GPU-based metaheuristics and the best method today. Also, our GPU implementation of the objective function obtained an average speedup of 175x over the sequential version. These results demonstrate that a GPU approach to the clustering problem is very promising.

5
  • JEFFERSON DAVID DOS ANJOS SILVA
  • MONITORAMENTO DA QUALIDADE DA PAVIMENTAÇÃO DE VIAS UTILIZANDO COMPUTAÇÃO EM NUVEM VEICULAR
  • Orientador : LEANDRO DIAS DA SILVA
  • MEMBROS DA BANCA :
  • LEANDRO DIAS DA SILVA
  • IVO AUGUSTO ANDRADE ROCHA CALADO
  • RAFAEL DE AMORIM SILVA
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • Data: 30/04/2021

  • Mostrar Resumo
  • O Índice Internacional de Rugosidade (International Roughness Index - IRI) foi proposto inicialmente em um projeto de pesquisa realizado pela universidade de Michigan (Cebon, 1993) para monitorar a condição geral de rugosidade de uma rota percorrida. O IRI mede principalmente a condição do perfil longitudinal de uma estrada percorrida de acordo com a condição de vibração do veículo. O IRI é baseado na inclinação retificada média (ARS), que é uma taxa filtrada do movimento acumulado da suspensão de um veículo padrão dividido pela distância percorrida pelo veículo durante a medição, o IRI é então igual ao ARS multiplicado por 1.000. As unidades de medidas geralmente recomendadas são metros por quilômetro (m/km) ou milímetros por metro (mm/m). Um aplicativo Android foi desenvolvido para ser utilizado para coletar dados do acelerômetro de um smartphone para uso no cálculo do IRI para ambiente das VANETs, mapeando e informando aos usuários sobre a qualidade de determinada estrada. Com o IRI calculado, é possível mapear as estradas e determinar a qualidade das mesmas. Quando o IRI é calculado no smartphone, os resultados são enviados para a nuvem, onde ocorre todo o processamento de dados, e é fornecido o valor do IRI para o aplicativo do usuário em tempo real, o ajudando a tomar a decisão de qual rota tomar. Por exemplo, uma rota com um percurso mais rápido, porém, com uma qualidade de estrada pior, ou uma rota um pouco mais demorada, porém com uma qualidade de estrada melhor. Experimentos foram realizados para validar o trabalho.


  • Mostrar Abstract
  • Abstract

6
  • ALEXANDRE SERGIO DANTAS DE LIMA
  • Algoritmo BRKGA multipopulacional para o problema de clusterização automática

  • Orientador : RIAN GABRIEL SANTOS PINHEIRO
  • MEMBROS DA BANCA :
  • JEAN CARLOS TEIXEIRA DE ARAUJO
  • ANDRE LUIZ LINS DE AQUINO
  • BRUNO COSTA E SILVA NOGUEIRA
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 30/04/2021

  • Mostrar Resumo
  • O processo de agrupamento de dados é conhecido como clusterização.  Na literatura,  o processo de clusterização, ou agrupamento, tem duas variações: (i) se o número de clusters for predefinido,  esse processo é conhecido como Problema de Clusterização (CP — Clus-tering Problem) ou Problema de k-Clusterização, e (ii) quando o número de clusters não é definido, o processo torna-se conhecido como Problema de Clusterização Automática (PCA— Automatic Clustering Problem). O Problema de Clusterização Automática é classificado como NP-difícil, o que inviabiliza o valor exato dos agrupamentos. A importância de ter dados bem agrupados é crucial para
    a tomada decisões mais assertivas. A técnica de agrupamento de dados possui aplicabilidade nas mais diversas áreas do conhecimento, como: engenharia, administração, economia, biologia, física, entre outras, que apresentam problemas com representação de modelagens matemáticas. Os algoritmos genéticos representam uma classe
    de algoritmos que podem ser utilizadas para resolver este tipo de problema, estes algoritmos são baseados em processos de evolução darwinistas, selecionando as melhores soluções dentro de uma população. O BRKGA (Bia-sed Random Key Genetic Algorithm), em tradução Algoritmo Genético de Chaves Aleatórias Viciadas é apresentado como uma variação dos algoritmos genéticos, em que as soluções de um problema são representadas como vetores de chaves reais, geradas aleatoriamente, no intervalo contínuo de [0,1). O fitness de uma solução viável é determinado pelo decodificador que mapeia este vetor em um valor real. Este trabalho propõe um BRKGA multipopulacional para identificar o número ideal declusters,  de a cordo com o índice de silhueta uma medida de eficácia de agrupamento bastante utilizada na literatura. No algoritmo proposto, o espaço de soluções é particionado de  forma  que  cada  subpopulação  o  algoritmo  represente  soluções  com  um  número k de cluster. Assim, a cada subpopulação, um BRKGA independente é aplicado. Experimentos computacionais foram realizados em cinquenta e cinco instâncias da literatura.  O algoritmo proposto é comparado com métodos existentes na literatura, apresentando resultados superiores, levando ao entendimento de que o algoritmo é promissor.


  • Mostrar Abstract
  • The process of grouping data is known as clustering. In the literature, the clustering process, or grouping, has two variations: (i) if the number of clusters is predefined, this process is known as the Clustering Problem (CP) or k-Clustering Problem, and (ii) when the number of clusters is not defined, the process becomes known as the Automatic Clustering Problem (PCA). The Automatic Clustering Problem is classified as NP-difficult, which prevents the exact value of the clusters. The importance of having well-grouped data is crucial for
    making more assertive decisions. The data grouping technique has applicability in the most diverse areas of knowledge, such as: engineering, administration, economics, biology, physics, among others, which present problems with the representation of mathematical models. Genetic algorithms represent a class
    of algorithms that can be used to solve this type of problem, these algorithms are based on Darwinian evolution processes, selecting the best solutions within a population. The BRKGA (Bia-sed Random Key Genetic Algorithm), in translation Genetic Algorithm of Addicted Random Keys is presented as a variation of the genetic algorithms, in which the solutions of a problem are represented as vectors of real keys, generated randomly, in the continuous interval of [0.1). The fitness of a viable solution is determined by the decoder that maps this vector to a real value. This work proposes a multipopular BRKGA to identify the ideal number of declusters, in accordance with the silhouette index, a measure of grouping efficiency widely used in the literature. In the proposed algorithm, the solution space is partitioned so that each subpopulation the algorithm represents solutions with a cluster k number. Thus, for each subpopulation, an independent BRKGA is applied. Computational experiments were carried out in fifty-five instances of the literature. The proposed algorithm is compared with existing methods in the literature, showing superior results, leading to the understanding that the algorithm is promising.

7
  • BRUNO GABRIEL CAVALCANTE LIMA
  • Controle Natural Humano-Robô orientado a usuário com Thin-

    Plate Splines e LRCN

  • Orientador : TIAGO FIGUEIREDO VIEIRA
  • MEMBROS DA BANCA :
  • DOUGLAS CEDRIM OLIVEIRA
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • TIAGO FIGUEIREDO VIEIRA
  • Data: 26/05/2021

  • Mostrar Resumo
  • Este trabalho propõe uma nova abordagem no ramo da
    teleoperação de braços robóticos baseada em visão
    computacional, Thin-Plate Splines e Redes Recorrentes.
    Utilizando uma única câmera de profundidade como sensor de
    entrada, tal abordagem isenta o usuário da necessidade de
    utilizar quaisquer dispositivos vestíveis. Através da aplicação de
    uma interface natural de usuário, esta abordagem inovadora
    facilita o ajuste fino paramétrico outrora necessário para a
    calibração de usuário para o controle robótico de posição,
    transformando o processo de calibração numa direta captura de
    poses do corpo humano. Utilizando a mão do usuário como
    forma de controle, a abordagem proposta é constituída por duas
    partes principais. A primeira é um mapeamento de posição
    customizável com componentes lineares e não-lineares,
    baseado em Thin Plate Splines (TPS), para transferir
    diretamente o movimento do braço humano para o movimento
    do braço robótico. Tal mapeamento permite a correspondência
    de corpos dissimilares com diferentes restrições cinemáticas e
    diferentes formatos de espaço de trabalho. A segunda é um
    classificador dinâmico do estado da mão do usuário, baseado
    em Redes Recorrentes Convolucionais de Longo- Prazo
    (LRCN), que explora a coerência temporal dos dados de
    profundidade adquiridos. Ao fim, é realizada uma validação e
    avaliação da abordagem proposta. Para o classificador da mão,
    é realizada uma validação cruzada comparando a abordagem 

    proposta com um baseline. Resultados revelam uma elevação
    na acurácia do classificador ao se explorar as relações
    temporais entre as imagens de profundidade. Para o
    mapeamento de movimento, é realizado um estudo com
    usuários envolvendo variantes da tarefa de pick-and-place em
    um cenário simplificado de manufatura. Para esse estudo, um
    ambiente de validação foi desenvolvido utilizando o Robot
    Operating System (ROS) como framework principal. Também
    comparado a um baseline, a abordagem utilizando TPS revelou
    maior conforto e precisão no controle dos usuários em regiões
    próximas dos limites do espaço de trabalho do robô, nas quais a
    abordagem convencional se mostrava prejudicada. Além disso,
    resultados sugerem que a nova abordagem não apresentou
    aumento na dificuldade das tarefas.


  • Mostrar Abstract
  • This work proposes a novel vision-based robotic-arm
    teleoperation approach. By using a single depth-based camera,
    such an approach exempts the user from using any wearable
    devices. Through applying a natural user interface, such an
    approach also leverages the conventional fine-tuning process of
    the robotic position control calibration, turning the process into a
    direct capture of the human body. The proposed approach
    consists of two main parts. The first is a nonlinear customizable
    movement mapping based on Thin-Plate Splines (TPS), to
    directly transfer human body motion to robotic arm motion. Such
    mapping allows for matching dissimilar bodies, with different
    kinematics constraints and different workspace shapes. The
    second is a Deep Neural Network hand-state classifier based on
    Long-term Recurrent Convolutional Networks (LRCN), which
    exploits the temporal coherence of the acquired depth data. In
    the end, validation and evaluation of the proposed approach are
    performed. For the hand-state classifier, a cross-validation
    experiment comparing the current approach with a baseline.
    Results reveal an increase in the classifier accuracy through
    exploring the temporal coherence present in sequential depth
    data. For the movement mapping, a user study is performed
    over a set of practical experiments involving variants of pick-
    and-place tasks in a simplified manufacturing environment. For
    this study, we developed a validation environment using Robot
    Operating System (ROS) as the main framework. Also
    compared to a baseline, the position mapping approach using 

    TPS revealed better comfort and precision of user control in
    regions near to robot workspace boundaries, where the baseline
    approach showed a poor performance. Moreover, results
    suggested the new approach did not present an increase in the
    experiment’s task difficulty.

8
  • JOAO LUCAS MARQUES CORREIA
  • Cientistas de dados brasileiros: revelando seus desafios e práticas no desenvolvimento de modelos de aprendizado de máquina

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • ALESSANDRO FABRICIO GARCIA
  • BALDOINO FONSECA DOS SANTOS NETO
  • RAFAEL MAIANI DE MELLO
  • THIAGO DAMASCENO CORDEIRO
  • Data: 09/06/2021

  • Mostrar Resumo
  • Cientistas de dados com frequência desenvolvem modelos de aprendizagem de máquina para resolver uma variedade de problemas tanto na indústria como na academia. Para construir esses modelos, estes profissionais executam atividades que também são executadas no ciclo tradicional do desenvolvimento de software, como a elicitação e implementação de requisitos. É factível argumentar que os cientistas de dados poderiam tirar vantagem dos métodos utilizados pela engenharia de software tradicional para construir modelos de aprendizagem de máquina. Entretanto, o desenvolvimento de código voltado para aprendizagem de máquina possui particularidades que podem levar a desafios que podem que necessitam da adoção de novas práticas de desenvolvimento. De modo que a literatura atual não caracteriza esse tipo de conhecimento do ponto de vista dos cientistas de dados. Neste trabalho, nós caracterizamos os desafios e práticas a respeito da engenharia de modelos de aprendizagem de máquina que merecem atenção da comunidade de pesquisa. Para isto, nós executamos um estudo qualitativo com oito desenvolvedores de software membros de cinco companhias distintas, com diferentes níveis de experiência no desenvolvimento de modelos de aprendizagem de máquina. Nossos achados sugerem que: (i) o processamento de dados e a engenharia de atributos são os estágios de desenvolvimento mais desafiadores durante o desenvolvimento de um modelo de aprendizagem de máquina; (ii) é essencial uma sinergia entre os cientistas de dados e especialistas no domínio da aplicação do modelo; e (iii) o desenvolvimento de modelos de aprendizagem de máquina sofre da falta de suporte de um processo de engenharia bem definido.


  • Mostrar Abstract
  • Data scientists often develop machine learning models to solve a variety of problems in the industry and academy. To build these models, these professionals usually perform activities that are also performed in the traditional software development lifecycle, such as eliciting and implementing requirements. One might argue that data scientists could rely on the engineering of traditional software development to build machine learning models. However, machine learning development presents certain characteristics, which may raise challenges that lead to the need for adopting new practices. The literature lacks in characterizing this knowledge from the perspective of the data scientists. In this paper, we characterize challenges and practices addressing the engineering of machine learning models that deserve attention from the research community. To this end, we performed a qualitative study with eight data scientists across five different companies having different levels of experience in developing machine learning models. Our findings suggest that: (i) data processing and feature engineering are the most challenging stages in the development of machine learning models; (ii) it is essential synergy between data scientists and domain experts in most of these stages; and (iii) the development of machine learning models lacks the support of a well-engineered process.

9
  • JORGE SANTOS LEANDRO
  • ESTIMAÇÃO DE PARAMETROS DO MODELO DO CIRCUITO EQUIVALENTE DO SISTEMA CARDIOVASCULAR HUMANO USANDO DEEP LEARNING

  • Orientador : THIAGO DAMASCENO CORDEIRO
  • MEMBROS DA BANCA :
  • THIAGO DAMASCENO CORDEIRO
  • XU YANG
  • ANTONIO MARCUS NOGUEIRA LIMA
  • Data: 27/08/2021

  • Mostrar Resumo
  • Pacientes portadores de doenças cardíacas graves ainda encontram no transplante cardíaco a melhor opção de tratamento. Entretanto, os chamados Dispositivos de Assistência Ventricular (DAVs) vêm sendo utilizados com sucesso no suporte ao bombeamento do músculo cardíaco na tentativa de suprir as necessidades do sistema cardiovascular humano (SCH). Nesse contexto, modelos de parâmetros concentrados do SCH (modelos 0D) possuem grande importância no desenvolvimento de pesquisas em virtude da capacidade de verificar o comportamento das variáveis hemodinâmicas (VH) mediante simulações computacionais, sendo possível a realização de alterações paramétricas tanto no modelo do SCH quanto no modelo do DAV, o que permite o estudo de diversos modos de operação antes mesmo de implantar o DAV no paciente. Além disso, modelos específicos para um determinado paciente permitem que os ganhos do controlador sejam sintonizados de acordo com a situação clínica do paciente. Sabe-se que processo de estimação paramétrica de tais modelos necessita dados do paciente e nem sempre as VH de interesse encontram-se disponíveis e de maneira não invasiva. Em face ao exposto, deve-se buscar a utilização de VH que sejam preferencialmente obtidas por meio de técnicas não invasivas, preferencialmente aquelas consideradas comuns no ambiente médico-hospitalar. Neste trabalho, pretende-se desenvolver um estimador de parâmetros de um modelo 0D do sistema cardiovascular humano para pacientes específicos usando técnicas de aprendizagem profunda e tendo como sinal de entrada apenas o sinal de pressão arterial sistêmica em forma de onda, uma vez que esta VH é facilmente obtida utilizando-se métodos não invasivos.


  • Mostrar Abstract
  • For patients with severe heart diseases, heart transplantation is still the best treatment option. However, the so-called Ventricular Assist Devices (VADs) have been used successfully to support the pumping of the cardiac muscle to meet the needs of the human cardiovascular system (CVS). The so-called lumped parameter (0D) models are of great importance for computational simulations of hemodynamic variables (HVs), either using CVS models or VAD models, making it possible to analyze the performance of different operation modes even before implanting the device in the patient. Furthermore, specific models for a given patient allow the tuning of control systems to be carried out according to the clinical situation of that patient. It is known that the parametric estimation process of such models requires patient data and the HVs of interest are not always. Thus, using HVs preferably obtained through non-invasive techniques and those considered common in the medical-hospital environment should be sought. This work investigates the feasibility of implementing a parametric estimation process of a 0D model of the human CVS for specific patients. For this purpose, deep learning techniques are used, having only the arterial systemic blood pressure signal as input signal since it is easily obtained using non-invasive methods. The sensitivity function is calculated to investigate the influence of the CVS parameter variation on all HVs since this correlation is directly related to the accuracy of the estimated parameter values. The results highlight the very low sensitivity of systemic pressure for certain parameters. This fact impairs their estimation and confirms the need to add more HVs as inputs to the estimator. The sensitivity study also highlights that some parameters' variation does not significantly influence any of the HVs, impairing the entire estimation process for a specific patient.

10
  • RANDY AMBROSIO QUINDAI JOAO
  • Revisão Sistemática e Meta-Análise - Processos para automação da seleção

  • Orientador : ANDRE LUIZ LINS DE AQUINO
  • MEMBROS DA BANCA :
  • ANDRE LUIZ LINS DE AQUINO
  • FABIANE DA SILVA QUEIROZ
  • JORGE ARTUR PECANHA DE MIRANDA COELHO
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 28/08/2021

  • Mostrar Resumo
  • Nesse trabalho apresentamos os processos para automação da fase de seleção da Revisão Sistemática da Literatura (SLR), de tal modo que o tempo para análise dos artigos seja otimizado, permitindo aos revisores passar para a fase de extração de forma mais rápida, através de dados estatísticos. A metodologia SLR padrão possui três fases principais: planejamento da revisão, condução da revisão e disseminação. A condução da revisão é a fase mais cansativa porque quase todas as atividades realizadas são leitura e categorização manual dos documentos. Nessa fase, os autores da revisão avaliam se cada estudo está de acordo com os critérios através da leitura manual do título e resumo dos estudos. Nós usamos modelagem de tópicos para mapear e encontrar relações não tão evidentes ao discernimento humano, aliada à eficiência na redução do tempo médio de análise de cada estudo na fase de seleção, independente do número de artigos, contando com o poder computacional para redução do tempo nessa fase de meses para horas ou minutos. Esse trabalho propõe algumas estratégias para clusterização de estudos por tópicos, geração de resumo para os estudos clusterizados e gráficos relacionados. Para melhor estratificação dos dados, nós já testamos algumas hipóteses e, alcançamos alguns resultados satisfatórios. Obtivemos esses resultados explorando os dados BibTex. Para a clusterização dos estudos transformamos títulos, resumos e palavras chaves numa nuvem de palavras e, agrupamos usando processamento de linguagem natural com uma técnica chamada Sentence Boundary Detection para encontrar segmentos de sentenças individuais, onde estudos com a mesma sentença são agrupados pela frequência das mesmas.. Realizamos uma comparação da geração de texto usando Cadeia de Markov e Rede Neural Recorrente para avaliação da qualidade do texto gerado. Disponibilizamos gráficos de dados explorando dados BIBTEX já disponíveis e explorando relações de mudanças semânticas ou grupos de colaboração do autor. A metodologia foi aplicada no framework das melhores práticas para conduzir e relatar revisões, resolvendo assim um problema prático de forma eficaz com resultados reproduzíveis e repetíveis.

  • Mostrar Abstract
  • We present with this work processes towards selection automation to support the Systematic Review of Literature (SLR) so that the time in the analysis of articles in the selection phase is optimized, allowing the reviewers to move to the extraction phase in a faster and smoother way, based on statistical views. The standard SLR methodology has three main phases: planning of review, conducting of review, and dissemination. Conducting review is the most daunting phase because almost all steps refer to manual reading and categorization. In this phase, authors of reviews verify which studies meet the inclusion criteria for the extraction phase by a manual reading of title and abstract. We use topic modeling to map and search for relationships not so evident to human discernment, added to the efficiency of the average time for article analysis in the selection phase, regardless of the number of articles, but rather the computational power to reduce the time of this phase from months to hours or minutes. This work proposes some strategies in topics for clustering the studies, generation of summary for clustered studies, and data graphics. For better data stratification, we already tested some propositions, and we have achieved quite good results. We obtain these results by exploring the BIBTEXdata. For clustering of studies, we transformed the title, abstract and keywords, into a wordcloud for each study, and grouped using a natural language processing technique called Sentence Boundary Detection for finding and segmenting meaningful individual sentences, studies with same sentences are put together, organized, and clustered by sentences frequency. We achieve the generation of summary for clustered studies using natural language generation. We perform a comparison of Markov Chain Generation with Recurrent Neural Network generation for quality assessment of the generated text. We obtain data graphics by exploring BIBTEXdata already available, and min- ing relations of semantic changes or author’s groups of collaboration. The results methodology follows the best practices for conducting and reporting reviews, thus solving a practical problem effectively with reproducible and repeatable results. The main goal of review automation is to save lives by accelerating the adoption of better healthcare standards. We present techniques for studies summarization, categorization in related topics, and bibliography statistics.

11
  • LEANDRO MARTINS DE FREITAS
  • Modelo substituto para controle adaptativo do ponto de operação do amplificador óptico baseado em Aprendizado de Máquina

  • Orientador : ERICK DE ANDRADE BARBOZA
  • MEMBROS DA BANCA :
  • CARMELO JOSE ALBANEZ BASTOS FILHO
  • ERICK DE ANDRADE BARBOZA
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • Data: 28/09/2021

  • Mostrar Resumo
  • O controle adaptativo do ponto de operação do amplificador óptico (ACOP) é um dos desafios para a operação dinâmica em redes e comunicações ópticas. As abordagens ACOP visam definir os ganhos dos amplificadores ópticos de forma dinâmica para aumentar a qualidade de transmissão após uma cascata de amplificadores. A abordagem ACOP mais recente usa um algoritmo de otimização evolutiva multiobjetivo para definir os ganhos dos amplificadores para maximizar a relação sinal-ruído óptica (OSNR) e minimizar a ondulação da OSNR. Apesar dos resultados promissores em relação à Qualidade de Transmissão, contar com um algoritmo evolutivo para tomar decisões em tempo real não é desejável, pois seu método iterativo geralmente implica em alto tempo de execução. Portanto, este trabalho propõe um modelo substituto que pode obter soluções tão boas quanto o algoritmo evolutivo multiobjetivo, mas em menos tempo. Foram consideradas cinco técnicas de regressão de aprendizado de máquina (ML), treinadas com as soluções do algoritmo de otimização. Os resultados mostraram que, para todos os casos, o erro mediano da regressão é menor que 1,15 dB e que um regressor pode ser usado para definir os ganhos dos amplificadores e as perdas dos atenuadores ópticos variáveis de um link óptico inteiro. Ele também mostrou que o regressor mais simples é 28.000 vezes mais rápido do que a abordagem de otimização evolutiva.


  • Mostrar Abstract
  • The adaptive control of optical amplifier operating point (ACOP) is one of the problems presented in the challenge of Dynamic operation in optical communication and networks. The ACOP approaches aim to define the gains of the optical amplifiers dynamically to increase the transmission quality after a cascade of amplifiers. The most recent ACOP approach uses a multi-objective evolutionary optimization algorithm to define the gains of the amplifiers to maximize the optical signal to noise ratio (OSNR) and minimize OSNR ripple. Despite the promising results regarding Quality of Transmission, relying on an evolutionary algorithm to make decisions in real-time is not desirable because its iterative method usually implies high execution time. Therefore, this work proposes a surrogate model that can obtain solutions as good as the multi-objective evolutionary algorithm but in less time. We considered five machine learning (ML) regression techniques, trained with the optimization algorithm solutions. Results showed that for all cases, the regression median error is less than 1.15 dB and that one regressor can be used to define amplifiers' gains and variable optical attenuators' losses of an entire optical link. It also showed that the most straightforward regressor is 28,000 times faster than the evolutionary optimization approach.

12
  • GEYMERSON DOS SANTOS RAMOS
  •  

    Otimização de Processos de Alocação e Handover em Redes Móveis
  • Orientador : ANDRE LUIZ LINS DE AQUINO
  • MEMBROS DA BANCA :
  • ANDRE LUIZ LINS DE AQUINO
  • ERICK DE ANDRADE BARBOZA
  • RIAN GABRIEL SANTOS PINHEIRO
  • ALEXANDRE MENDES
  • MARILIA PASCOAL CURADO
  • Data: 27/10/2021

  • Mostrar Resumo
  • O número crescente de dispositivos conectados à Internet tem exigido avanços em tecnologias de comunicação sem fio. A rede 4G e suas antecessoras estão sendo gradativamente substituídas pela 5G, que promete maior velocidade, heterogeneidade e escalabilidade. A 5a geração também oferece suporte amplo para aplicações de redes definidas por software, aumentando a flexibilidade de protocolos e processos que antes eram embarcados e de difícil atualização. Este trabalho tem como objetivo melhorar processos em redes 5G através de aplicações de redes definidas por software, que podem melhorar a experiência de mobilidade, balanceamento de carga na rede e redução de custos operacionais. Através de modelos matemáticos, nossa proposta visa a alocação de usuários em torres ou estações bases de redes de telecomunicação, minimizando handovers (transferências) e melhorando a qualidade de comunicação. O trabalho oferece as seguintes contribuições: i) Um modelo matemático para alocação de usuários em estações bases de redes de telefonia móvel, com a redução de transferências; ii) Uma solução meta-heurística como alternativa a modelos exatos, visto que estes podem se tornar inviáveis em condições de restrição de recursos de tempo e computacionais; iii) A avaliação do modelo em cenários simulados de mobilidade, avaliando o comportamento do processo de handover e o controle e distribuição de usuários na rede em função de largura de banda disponível. A modelagem, que considera a frequência média de handover de cada estação base e o sinal indicador de qualidade de comunicação, foi avaliada com soluções exatas e heurísticas, sendo estas o algoritmo de branch-and-bound, busca local iterativa, busca tabu e solução gulosa. Através dos métodos heurísticos o algoritmo de busca local iterativa obteve uma redução de aproximadamente 82\% do tempo de execução em comparação ao algoritmo exato branch-and-bound. Com relação ao indicador de qualidade de conexão, a solução obteve um ganho médio de 1.45\%, e o número de handovers foi mantido. Apesar do ganho reduzido, o que torna nossa proposta estatisticamente equivalente a solução da literatura, oferecemos a vantagem de não precisar computar todas possíveis e futuras rotas dos usuários. Sendo suficiente a posição atual. Adicionalmente, nossa solução considera a capacidade de largura de banda de cada estação base, respeitando a capacidade de rede e mantendo o controle de alocação.


  • Mostrar Abstract
  • The growing number of devices connected to the Internet has required advances in wireless communication technologies. 4G networks are gradually being replaced by 5G, which proposes greater speeds, heterogeneity, and scalability. The fifth-generation also provides broad support for software-defined network (SDN) applications, which increase the programming flexibility of protocols and processes that were previously embedded and difficult to modify in network devices. This work aims to improve processes in 5G networks by using software-defines networks. SDN applications can achieve improvements in mobility, load distribution, and cost reductions. Through mathematical models, our work focuses on optimizing the allocation of users in base stations of telecommunication networks, minimizing the handover of users between base stations, and improving network communication quality. The contributions of this work are: i) A mathematical model for allocating users of mobile networks at base stations, also aiming handover reduction; ii) A metaheuristic solution as an alternative to exact models, since exact models can prove to be non-scalable, and present unfeasible solving times under computationally restricted conditions; iii) A model evaluation in simulated mobility scenarios considering the handover process behavior and the network user distribution according to available bandwidth. Our allocation model considers the average handover frequency of each base station and the Reference Signal Received Quality (RSRQ) indicator between users and base stations. The model evaluation used exact and heuristic methods, namely the branch-and-bound algorithm, tabu search, iterated local search, and a greedy solution. On average, the iterated local search algorithm obtained an execution time reduction of approximately 82% compared to the branch-and-bound exact algorithm. Regarding the RSRQ indicator, the solution reached a 1.45% average gain, and the number of performed handovers was maintained, compared to a similar literature model. Despite the modest improvement, which makes our proposal statistically equivalent to the literature model, we offer the advantage of not needing to predict the users' possible and future routes. Only the current position is required. Furthermore, our solution also considers base stations' bandwidth capacity, controlling the allocation and network occupation limits.

13
  • EMERSON MARTINS DA SILVA
  • UM MODELO DE CROWDSOURCING PARA GESTÃO DE ATOS NORMATIVOS DOS CONSELHOS DE EDUCAÇÃO DO BRASIL
  • Orientador : ALAN PEDRO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN PEDRO DA SILVA
  • IVO AUGUSTO ANDRADE ROCHA CALADO
  • RANILSON OSCAR ARAUJO PAIVA
  • SEIJI ISOTANI
  • Data: 28/10/2021

  • Mostrar Resumo
  • Os atos normativos são normas jurídicas gerais, abstratas e impessoais que estabelecem
    ou sugerem condutas e têm carga normativa, ou seja, estabelecem normas, regras, padrões ou
    obrigações [Meirelles et al., 1966; MJSP, 2017], eles definem a correta aplicação de nossa
    lei, evitando assim, que alguém faça algo que a lei veda, as regras da vida em sociedade
    sem especificar o individuo específico que irá ser afetado pela norma [Politique, 2016].Por
    exemplo, o Decreto No 9.057/17 é um ato normativo que regula a oferta de Cursos na Modalidade
    a Distância nas categorias de ensino previstas no Brasil.Um outro exemplo de ato
    normativo é a Portaria No 1.657/2018 que estabelece a permissão da expedição da Carteira
    Nacional de Habilitação (CNH) em meio eletrônico, denominada CNH Digital. Esses atos
    normativos decidem como nossos comportamentos e das entidades públicas e/ou privadas e
    são construídas por todos nós como sociedade.
    Os conselhos de educação são órgãos colegiados de caráter normativo, deliberativo e consultivo,
    que interpretam, deliberam, segundo suas competências e atribuições, a aplicação da
    legislação educacional e propõem sugestões de aperfeiçoamento da educação dos sistemas
    de ensino [CNE/CP, 1999]. Cabem a eles a elaboração de portarias, pareceres, resoluções,
    indicações, notas técnicas entre outros documentos gerados pelos conselhos de educação
    que contribuem na construção de políticas públicas [da Glória Gohn, 2002]. Eles também
    possuem a finalidade de proporcionar diálogo, ouvir demandas da comunidade e de se manifestar
    quanto as ações dos órgãos superiores da educação, tais quais Ministério da Educação
    (MEC) e o Conselho Nacional de Educação (CNE), sobre assuntos de educação de interesse
    de diferentes setores, sendo assim organizados em esferas de atuação.


  • Mostrar Abstract

  • Normative acts are general, abstract and impersonal legal norms that establish or suggest behaviors and have a normative load, that is, they establish norms, rules, standards or obligations [Meirelles et al., 1966; MJSP, 2017], they define the correct application of our law, thus preventing someone from doing something that the law prohibits, the rules of life in society without specifying the specific individual who will be affected by the standard [Politique, 2016].Por For example, Decree No. 9,057/17 is a normative act that regulates the offer of Courses in the Modality Distance Learning in the teaching categories provided for in Brazil. Another example of an act normative is Ordinance No. 1,657/2018, which establishes the authorization for the issuance of the Portfolio Driver's License (CNH) in electronic media, called CNH Digital. these acts normative decisions decide how our behavior and that of public and/or private entities and they are built by all of us as a society. The education councils are collegiate bodies of a normative, deliberative and consultative nature, which interpret, decide, according to their competences and attributions, the application of the educational legislation and propose suggestions for improving education systems teaching [CNE/CP, 1999]. They are responsible for preparing ordinances, opinions, resolutions, indications, technical notes and other documents generated by the education councils that contribute to the construction of public policies [da Glória Gohn, 2002]. They also have the purpose of providing dialogue, listening to the demands of the community and expressing themselves as the actions of higher education bodies, such as the Ministry of Education (MEC) and the National Council of Education (CNE), on education matters of interest from different sectors, being thus organized into spheres of action.

14
  • ANTHONY EMANOEL DE ALBUQUERQUE JATOBA
  • Multimodality CT/MRI Radiomics for Lung NoduleMalignancy Suspiciousness Classification

  • Orientador : MARCELO COSTA OLIVEIRA
  • MEMBROS DA BANCA :
  • MARCELO COSTA OLIVEIRA
  • PAULO MAZZONCINI DE AZEVEDO MARQUES
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • Data: 29/10/2021

  • Mostrar Resumo
  • O câncer de pulmão é o tipo mais frequente e letal de câncer e o seu diagnóstico precoce é crucial para a sobrevivência do paciente. A tomografia computadorizada (TC) é o padrão-ouro para o rastreio da doença, mas estudos recentes têm demonstrado o potencial da ressonância magnética (RM) no diagnóstico de nódulos pulmonares, bem como da combinação de imagens médicas multimodalidade. Neste estudo, foi avaliado se a combinação de características radiômicas de imagens de TC e RM de pacientes de câncer pulmonar contribui para classificações mais precisas da suspeita de malignidade de nódulos. Para atingir tal objetivo, foi realizado o registro de exames de TC e RM de 47 pacientes, segmentação dos nódulos em cada modalidade, extração de características radiômicas dos nódulos, e classificação com usando XGBoost, avaliando métricas de desempenho dos modelos em 30 iterações. O mesmo experimento foi realizado para quatro conjuntos de características: 1) somente de TC; 2) somente de RM; 3) concatenação de TC e RM; 4) e fusão de TC e RM. Nossos resultados indicam que a estratégia de fusão de imagens pode levar a ganhos de desempenho significativos sobre os modelos de modalidades individuais, com AUC média de \textit{0.794}, mas a concatenação de características não se provou uma abordagem adequada para lidar com imagens multimodalidade, uma vez que a AUC média de \textit{0.770} não indicou ganhos de desempenho. Além disso, foi observado que RM, com AUC média de \textit{0.770}, apresentou desempenho significativamente superior à TC, com \textit{0.755}, encorajando estudos em RM como modalidade para o acompanhamento do câncer de pulmão. Por fim, a análise das características reforçou a relevância da morfologia de um nódulo, como seu tamanho e esfericidade, além de características de textura que quantificam a complexidade e homogeneidade do ambiente intratumoral.


  • Mostrar Abstract
  • Lung cancer is the most common and deadly form of cancer, and its early diagnosis is de-cisive to the patient’s survival. Computed Tomography (CT) is the gold-standard imagingmodality for lung cancer management, but recent studies have shown the potential of Mag-netic Resonance Imaging (MRI) in lung cancer diagnosis and how combining multimodalitymedical images can yield better outcomes. In this study, we evaluated whether the combina-tion of CT and MRI scans from lung cancer patients can leverage a more precise malignancysuspiciousness classification. For such, we registered paired CT and MRI scans from 47 pa-tients, segmented the nodules in each modality, extracted radiomics features, and performedan experiment with an XGBoost classifier, evaluating models’ performance metrics across30 trials. The same experiment was performed with four sets of features: 1) CT-only; 2)MRI-only; 3) CT and MRI features; 4) CT/MRI fused images. Our results indicate that theimage fusion approach can yield significant AUC performance gains over the single modal-ities models, with an average AUC of0.794, but feature concatenation is not an adequatestrategy for dealing with multimodality data, as its average AUC of0.770didn’t indicate im-provement over the single modalities. Additionally, we observed that MRI, with an averageAUC of0.770, has shown significantly better performance than CT, with0.754, encourag-ing further studies in MRI as lung cancer management image modality. Finally, an analysison the importance of radiomics features reinforced the relevance of features that reflects onmorphological characteristics of a nodule, such as its dimension and roundness, as well astexture features that relate to the intratumoral environment, measuring its complexity andhomogeneity.

15
  • CARLA FABIANA GOMES DE SOUZA
  • FORMAÇÃO DE GRUPOS DE ALTO DESEMPENHO E MÉTODOS ÁGEIS NA APRENDIZAGEM COLABORATIVA BASEADA EM PROJETOS

  • Orientador : ALAN PEDRO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN PEDRO DA SILVA
  • GEISER CHALCO CHALLCO
  • RACHEL CARLOS DUQUE REIS
  • RANILSON OSCAR ARAUJO PAIVA
  • Data: 29/10/2021

  • Mostrar Resumo
  • O aprendizado de competências de comunicação e comprometimento é um dos principais
    desafios que os alunos enfrentam no ensino da educação [Kenski, 2008], seja na educação
    básica (BNCC1, [SANTOS and FELICETTI, 2013]) ou no ensino superior [Klozovski et al.,
    2015]. No entanto, poucas pessoas têm competências adequadas para o ensino de comunicação
    e comprometimento [Bonotto and Felicetti, 2014] . Uma abordagem para dar apoio ao
    ensino dessas competências é fazendo uso de métodos e praticas ágeis, os quais de acordo
    com Salza et al. [2019] têm sido demonstrados efetivos na educação, citando o exemplo da
    educação da Finlândia, na qual são utilizados métodos e praticas ágeis e a qual é considerada
    uma das melhores educações do mundo [Hazzan and Dubinsky, 2019].
    Salza et al. [2019] definem métodos e praticas ágeis como estruturas de processo que são
    utilizadas para o desenvolvimento de software e são baseados em valores e princípios, tendo
    como exemplo o Manifesto Ágil, e tem como intuito deixar de lado o método tradicional e
    linear em cascata para um método no qual os requisitos e as soluções são modificados constantemente
    de acordo com as solicitações do cliente. O foco principal destes métodos é dar
    maior valor as pessoas do que aos processos, dando assim ênfase nos talentos e habilidades
    dos indivíduos. Parsons and MacCallum [2018] indicam que a aplicação de métodos ágeis
    na engenharia de software evita o desperdício de recursos, tempo e esforço, favorecendo uma
    abordagem iterativa e com base no grupo de trabalho. Para obter esses mesmos benefícios
    no contexto de educação, diferentes desafios devem ser superados, por exemplo, é preciso
    definir o conceito de ágil a ser usado e também indicar a maneira como os educadores irão
    aplicar as práticas e métodos ágeis no processo de ensino-aprendizagem


  • Mostrar Abstract
  • Learning communication and commitment skills is one of the main challenges that students face in teaching education [Kenski, 2008], whether in education (BNCC1, [SANTOS and FELICETTI, 2013]) or in higher education [Klozovski et al., 2015]. However, few people have adequate skills for teaching communication. and commitment [Bonotto and Felicetti, 2014] . An approach to supporting the teaching these skills is using agile methods and practices, which according to with Salza et al. [2019] have been shown to be effective in education, citing the example of education in Finland, in which agile methods and practices are used and which is considered one of the best educations in the world [Hazzan and Dubinsky, 2019]. Salza et al. [2019] define agile methods and practices as process structures that are used for software development and are based on values and principles, having as an example the Agile Manifesto, and intends to leave aside the traditional method and linear cascade for a method in which requirements and solutions are constantly modified according to customer's requests. The main focus of these methods is to give greater value to people than to processes, thus placing emphasis on talents and skills of individuals. Parsons and MacCallum [2018] indicate that the application of agile methods in software engineering, it avoids wasting resources, time and effort, favoring a iterative and workgroup-based approach. To get these same benefits in the context of education, different challenges must be overcome, for example, it is necessary define the concept of agile to be used and also indicate how educators will apply agile practices and methods in the teaching-learning process
16
  • LUCAS ANTONIO FERRO DO AMARAL
  • Skelibras: Uma extensa base de dados de Libras construída com esqueletos 2D

  • Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
  • MEMBROS DA BANCA :
  • FABIANO PETRONETTO DO CARMO
  • MARCELO COSTA OLIVEIRA
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • TIAGO FIGUEIREDO VIEIRA
  • Data: 29/10/2021

  • Mostrar Resumo
  • O reconhecimento de sinais dinâmicos de línguas de sinais é uma tarefa difícil que começa a se tornar praticável com o uso de redes neurais profundas. Porém, a ausência de grandes bases de dados anotadas inviabiliza o treinamento destes classificadores. Neste trabalho, foi construída uma base de dados, entitulada Skelibras, contendo 57760 amostras divididas em 6572 classes de sinais dinâmicos da Língua Brasileira de Sinais (Libras). Cada sinal contém sequências de esqueletos (poses) do corpo e das mãos, extraída e sincronizada automaticamente de vídeos da base Corpus de Libras. Para extrair e organizar esses dados anotados de forma consistente, apresenta-se uma metodologia capaz de identificar e rastrear as poses de cada falante; sincronizar legendas e falantes presentes nas conversas; e sincronizar dados de vídeos adquiridos a partir de distintos pontos de vista com as legendas. Realizamos experimentos em variações de redes neurais profundas baseadas em camadas convolucionais, camadas densas, e unidades LSTMs para validar e fornecer resultados preliminares na base gerada neste trabalho, possibilitando assim a comparação futura com novos métodos de reconhecimento de sinais dinâmicos.


  • Mostrar Abstract
  • The recognition of dynamic signs of sign languages is a difficult task that is starting to become feasible with the use of deep neural networks. However, the absence of large annotated databases makes the training of these classifiers unfeasible. In this work, a database, entitled Skelibras, was built, containing $57760$ samples of $6572$ classes of dynamic signs of Brazilian Sign Language (Libras). Each sign contains sequences of skeletons (poses) of the body and hands, automatically extracted and synchronized from videos of the Corpus de Libras base. To extract and organize these annotated data consistently, a methodology capable of identifying and tracking the poses of each speaker is presented; synchronize subtitles and speakers present in conversations; and synchronize video data acquired from different points of view with subtitles. We performed experiments on variations of deep neural networks based on convolutional layers, dense layers, and LSTMs units to validate and provide preliminary results on the basis generated in this work, thus enabling future comparison with new dynamic signal recognition methods.

17
  • JULIO CESAR FERREIRA SILVA DE HOLANDA
  • Sistema de Validação de Aspectos Técnicos e Pedagógicos de Videoaulas: Construindo Recomendações e Visualizações para Apoiar o Professor.

  • Orientador : ALAN PEDRO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN PEDRO DA SILVA
  • DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
  • RANILSON OSCAR ARAUJO PAIVA
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 29/10/2021

  • Mostrar Resumo
  • Vídeos são a mídia digital mais popular para educação na atualidade, sendo as videoaulas a principal manifestação desta mídia. Enquanto a oferta e demanda de videoaulas cresce de forma consistente, principalmente no período da pandemia do COVID-19, a capacidade de uma parcela considerável dos professores acompanhar esta tendência não acompanha o crescimento de maneira proporcional, ou com resultados satisfatórios. Produzir videoaulas não é uma tarefa trivial para um professor, e é mais difícil ainda validar a qualidade da videoaula produzida, devido as características próprias de um vídeo e a subjetividade com que se estima sua qualidade. É proposto neste trabalho um sistema de validação de videoaulas, o qual tem como objetivo gerar recomendações de melhorias de videoaulas para professores. O sistema arquitetado tem como base as definições presentes na literatura sobre conceitos de boas práticas para produção de videoaulas. Um experimento foi executado para se avaliar o que alunos e professores consideram como boas práticas em videoaulas, assim como avaliar a utilidade de três recomendações criadas para simular o resultado gerado pelo sistema proposto. Os dados coletados mostram que os aspectos técnicos dos vídeos são bastante considerados pela preferência dos participantes do experimento. Dados de experimentos relacionados mostram que a coleta de interações dos participantes com o vídeo podem ajudar o professor a tomar melhores decisões pedagógicas.


  • Mostrar Abstract
  • Videos are the most popular digital media for education today, and video lessons are the main manifestation of this media. While the supply and demand for video lessons grows consistently, especially during the period of the COVID-19 pandemic, the capacity of a considerable portion of teachers to follow this trend does not follow the growth in a proportional way, or with satisfactory results. Producing video lessons is not a trivial task for a teacher, and it is even more difficult to validate the quality of the produced video lesson, due to the characteristics of a video and the subjectivity with which its quality is estimated. In this work, a video lessons validation system is proposed, which aims to generate recommendations for improvements in video lessons for teachers. The architected system is based on the definitions present in the literature about concepts of good practice for the production of video lessons. An experiment was carried out to evaluate what students and teachers consider as good practices in video lessons, as well as to evaluate the usefulness of three recommendations created to simulate the result generated by the proposed system. The data collected show that the technical aspects of the videos are highly considered by the preference of the participants in the experiment. Data from related experiments show that collecting participants' interactions with the video can help the teacher make better pedagogical decisions.

18
  • ALFREDO LIMA MOURA SILVA
  • Biased Random-Key Genetic Algorithms for the Minimum Broadcast Time Problem

  • Orientador : RIAN GABRIEL SANTOS PINHEIRO
  • MEMBROS DA BANCA :
  • FÁBIO PROTTI
  • ANDRE LUIZ LINS DE AQUINO
  • BRUNO COSTA E SILVA NOGUEIRA
  • RIAN GABRIEL SANTOS PINHEIRO
  • Data: 12/11/2021

  • Mostrar Resumo
  • The Minimum Broadcast Time (MBT) is a well-known data dissemination problem whose goal is to find a broadcast scheme that minimizes the number of steps needed to execute the broadcast operation. The Weighted Minimum Broadcast Time (WMBT) is a generalization of the MBT, such that each operation has a cost. Both problems have many applications in distributed systems and swarms robots. This work proposes Biased Random-Key Genetic Algorithms (BRKGA) and a hybrid algorithm (BRKGA + Integer Linear Programming) for the MBT and WMBT. We carry out experiments with our BRKGA on instances commonly used in the literature, and also on massive synthetic instances (up to 1000 vertices), allowing us to cover many possibilities of real industry topologies. Our proposal is also compared with state-of-the-art exact methods and heuristics. Experimental results show that our algorithms are able to outperform the best-known heuristics for the MBT and WMBT, and also that they are a very good alternative for large instances that cannot be solved by current exact methods.


  • Mostrar Abstract
  • The Minimum Broadcast Time (MBT) is a well-known data dissemination problem whose goal is to find a broadcast scheme that minimizes the number of steps needed to execute the broadcast operation. The Weighted Minimum Broadcast Time (WMBT) is a generalization of the MBT, such that each operation has a cost. Both problems have many applications in distributed systems and swarms robots. This work proposes Biased Random-Key Genetic Algorithms (BRKGA) and a hybrid algorithm (BRKGA + Integer Linear Programming) for the MBT and WMBT. We carry out experiments with our BRKGA on instances commonly used in the literature, and also on massive synthetic instances (up to 1000 vertices), allowing us to cover many possibilities of real industry topologies. Our proposal is also compared with state-of-the-art exact methods and heuristics. Experimental results show that our algorithms are able to outperform the best-known heuristics for the MBT and WMBT, and also that they are a very good alternative for large instances that cannot be solved by current exact methods.

19
  • TIAGO LIMA MARINHO
  • Otimização de hiperparâmetros do XGBoost utilizando meta-aprendizagem


  • Orientador : BRUNO ALMEIDA PIMENTEL
  • MEMBROS DA BANCA :
  • BRUNO ALMEIDA PIMENTEL
  • EVANDRO DE BARROS COSTA
  • ROBERTA VILHENA VIEIRA LOPES
  • DIEGO CARVALHO DO NASCIMENTO
  • Data: 16/12/2021

  • Mostrar Resumo
  • Com a evolução computacional, houve um crescimento no que condiz ao número de algoritmos
    de aprendizagem de máquina e em paralelo, foram se tornando cada vez mais complexos e
    robustos. Com o crescimento desta complexidade, foi necessário cada vez mais focar na configuração
    dos algoritmos, no que condiz aos seus hiperparâmetros, tendo como intuito aumentar a
    precisão no resultado de cada um deles: o que não é uma tarefa trivial. Com isso, a escolha dos
    hiperparâmetros mais adequados para um determinado conjunto de dados, pode ser uma tarefa
    custosa tanto em questão de tempo, quanto em questão de dinheiro. Com isso, é necessário que
    hajam maneiras mais rápidas e práticas para achar hiperparâmetros que vão configurar cada algoritmo
    individualmente. Este trabalho visa utilizar da Meta-Aprendizagem como uma solução
    viável para a recomendação de hiperparâmetros para o recente algoritmo de aprendizagem de
    máquina XGBoost, a fim de que haja uma redução de custos computacionais, visando também
    a redução de custo para as empresas. Os resultados experimentais atestaram o sucesso da aplicação
    da heurística utilizando a meta-aprendizagem para a recomendação dos mesmos. Com
    isso, incialmente foi feito uma caracterização dos conjuntos de dados utilizando três conjuntos
    de Meta-Características, para que houvesse uma forma de comparação de similaridade entre os
    mesmos e assim, aplicar a Meta-Aprendizagem para a recomendação dos hiperparâmetros entre
    os conjuntos de dados utilizado nos experimentos. Os resultados obtidos foram promissores,
    fazendo com que em alguns casos, 86.36% dos testes tivessem resultados positivos, ou seja, a
    acurácia do XGBoost utilizando a Meta-Aprendizagem, tivesse um resultado melhor do que os
    hiperparâmetros padrões utilizados pelo XGBoost em 86.36% dos casos.


  • Mostrar Abstract
  • With the growth of machine learning algorithms in recent times, both in the sense of their optimization, as well as in the emergence of new algorithms for problems but for classification and regression, more attention was paid to "which algorithm has better accuracy in a given data set". In parallel, there is also the problem of finding hyperparameters for each algorithm in order to increase the precision in the result of each one of them; which is not a trivial task. This ends up affecting companies in some way, as they are having to deal with the huge growth of data and without adjusting their models to deal with that data. An example of a machine learning algorithm that emerged in 2014 and which is also related to this type of problem, is XGBoost. In general, the algorithms have a large number of hyperparameters and depending on the size of the data set that the algorithm will be processed, this can be a very expensive task; both in terms of memory and complexity. The same happens with XGBoost, to use it both for regression and classification, it is necessary to configure a large number of hyperparameters and due to some heuristics used, it makes the algorithm a little more expensive than the others. . Therefore, it is evident that optimization is necessary in this optimization step for this type of algorithm. Having as a problem to solve this problem, a meta-learning uses an idea of experience, that is, if the algorithm was developed on a set of data and a good combination of hyperparameters for a certain set of data has already been found; a meta-learning aims to use these hyperparameters already found in some data set with similar characteristics, reducing the cost of finding a new combination of hyperparameters using a grid search, for example, where it is necessary to test a combination of hyperparameters which can become a costly task, mainly dependent on the size of the data set. Thus, having the advantage, when applying a deep search, test only with hyperparameters that have already been found in other data sets. Finally, this work aims to create a model for the use of meta-learningnew data sets; in order for there to be a reduction in computational costs, also cost reduction for companies, since a machine learning area it is growing more and more. For now, experiments are being carried out around 198 data sets, finding hyperparameters that give better results than the standard hyperparameters in the literature and comparing the results using the model that uses a meta-learning.


2020
Dissertações
1
  • RODRIGO DOS SANTOS LIMA
  • Understanding and Classifying Code Harmfulness

  • Orientador : BALDOINO FONSECA DOS SANTOS NETO
  • MEMBROS DA BANCA :
  • BALDOINO FONSECA DOS SANTOS NETO
  • LEOPOLDO MOTTA TEIXEIRA
  • MARCIO DE MEDEIROS RIBEIRO
  • Data: 28/02/2020

  • Mostrar Resumo
  • A presença de code smells indica uma má escolha de implementação e geralmente piora a qualidade do software. Portanto, a detecção de code smells é uma técnica simples para identificar oportunidades de refatoração em sistemas de software. Neste contexto, estudos anteriores desenvolveram ferramentas de detecção de code smells, fornecendo resultados diferentes. No entanto, tais ferramentas apresentam algumas limitações porque os code smells podem ser subjetivamente interpretados e detectados de maneiras diferentes. Para superar essas limitações, usamos diferentes técnicas de aprendizado de máquina para classificar os códigos prejudiciais. Um código prejudicial é um fator essencial a ser levado em consideração ao se reportar os resultados de detecção de code smells, uma vez que os códigos maliciosos contêm bugs, fornecendo a priorização dos esforços de refatoração. Em nosso experimento, aplicamos algoritmos de aprendizado de máquina diferentes em projetos de código aberto para detectar códigos prejudiciais que exploram diferentes recursos e técnicas.


  • Mostrar Abstract
  • A presença de code smells indica uma má escolha de implementação e geralmente piora a qualidade do software. Portanto, a detecção de code smells é uma técnica simples para identificar oportunidades de refatoração em sistemas de software. Neste contexto, estudos anteriores desenvolveram ferramentas de detecção de code smells, fornecendo resultados diferentes. No entanto, tais ferramentas apresentam algumas limitações porque os code smells podem ser subjetivamente interpretados e detectados de maneiras diferentes. Para superar essas limitações, usamos diferentes técnicas de aprendizado de máquina para classificar os códigos prejudiciais. Um código prejudicial é um fator essencial a ser levado em consideração ao se reportar os resultados de detecção de code smells, uma vez que os códigos maliciosos contêm bugs, fornecendo a priorização dos esforços de refatoração. Em nosso experimento, aplicamos algoritmos de aprendizado de máquina diferentes em projetos de código aberto para detectar códigos prejudiciais que exploram diferentes recursos e técnicas.

2
  • FELIPE CARMO CRISPIM
  • Reconhecimento Facial 3D para Análise de Parentesco

  • Orientador : TIAGO FIGUEIREDO VIEIRA
  • MEMBROS DA BANCA :
  • DOUGLAS CEDRIM OLIVEIRA
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • TIAGO FIGUEIREDO VIEIRA
  • Data: 13/03/2020

  • Mostrar Resumo
  • Este trabalho apresenta uma abordagem inédita de reconhecimento de parentesco baseada em Aprendizado Profundo aplicado a dados faciais de imagens coloridas e com informação de profundidade, i. e., RGBD. Para contornar a falta de uma base de dados 3D adequada com informações de parentesco, foi fornecida uma plataforma online onde os participantes podem submeter vídeos capturados com câmeras de \textit{smartphones} comuns contendo a sua face e as de seus parentes. Em seguida, os vídeos são processados para a reconstrução 3D das faces gravadas, gerando um banco de dados normalizado batizado Kin3D. Nele, combinam-se informações de profundidade de reconstruções 3D normalizadas com imagens 2D, compondo o banco de dados RGBD de parentesco inédito na literatura. Seguindo as abordagens de trabalhos relacionados, imagens são organizadas em quatro categorias de acordo com suas respectivas relações de parentesco. Para a classificação foram utilizadas Redes Neurais Convolucionais (RNC) bem como Máquina de Vetores de Suporte para a obtenção de um \textit{baseline}. A RNC foi testada em um banco de dados de parentesco 2D previamente consolidado na literatura científica, conhecido como KinFaceW-I e II, e em nosso Kin3D para comparação com trabalhos relacionados. Uma outra abordagem foi usada ao reunir todos os parentes de primeiro grau de uma vez e classificá-los de maneira binária. Resultados indicam que a adição de informação de profundidade aprimora a performance do modelo, aumentando a acurácia de classificação. Até o momento da escrita desse trabalho, este é o primeiro banco de dados contendo informação de profundidade para verificação de parentesco bem como a análise de técnicas do estado da arte para a obtenção do \textit{benchmark}, fornecendo uma performance como ponto de partida para estimular ainda mais avaliações da comunidade de pesquisa.


  • Mostrar Abstract
  • Este trabalho apresenta uma abordagem inédita de reconhecimento de parentesco baseada em Aprendizado Profundo aplicado a dados faciais de imagens coloridas e com informação de profundidade, i. e., RGBD. Para contornar a falta de uma base de dados 3D adequada com informações de parentesco, foi fornecida uma plataforma online onde os participantes podem submeter vídeos capturados com câmeras de \textit{smartphones} comuns contendo a sua face e as de seus parentes. Em seguida, os vídeos são processados para a reconstrução 3D das faces gravadas, gerando um banco de dados normalizado batizado Kin3D. Nele, combinam-se informações de profundidade de reconstruções 3D normalizadas com imagens 2D, compondo o banco de dados RGBD de parentesco inédito na literatura. Seguindo as abordagens de trabalhos relacionados, imagens são organizadas em quatro categorias de acordo com suas respectivas relações de parentesco. Para a classificação foram utilizadas Redes Neurais Convolucionais (RNC) bem como Máquina de Vetores de Suporte para a obtenção de um \textit{baseline}. A RNC foi testada em um banco de dados de parentesco 2D previamente consolidado na literatura científica, conhecido como KinFaceW-I e II, e em nosso Kin3D para comparação com trabalhos relacionados. Uma outra abordagem foi usada ao reunir todos os parentes de primeiro grau de uma vez e classificá-los de maneira binária. Resultados indicam que a adição de informação de profundidade aprimora a performance do modelo, aumentando a acurácia de classificação. Até o momento da escrita desse trabalho, este é o primeiro banco de dados contendo informação de profundidade para verificação de parentesco bem como a análise de técnicas do estado da arte para a obtenção do \textit{benchmark}, fornecendo uma performance como ponto de partida para estimular ainda mais avaliações da comunidade de pesquisa.

3
  • FRANCISCO DALTON BARBOSA DIAS
  • É uma Exceção Testar Comportamento Excepcional? Uma Avaliação Empírica Utilizando Testes Automatizados em Java

  • Orientador : MARCIO DE MEDEIROS RIBEIRO
  • MEMBROS DA BANCA :
  • MARCIO DE MEDEIROS RIBEIRO
  • BALDOINO FONSECA DOS SANTOS NETO
  • ROHIT GHEYI
  • Data: 29/05/2020

  • Mostrar Resumo
  • O teste de software é uma atividade crucial para verificar a qualidade interna de um software. Durante os testes, os programadores frequentemente criam testes para o comportamento normal de uma determinada funcionalidade (por exemplo, um documento foi corretamente enviado para a nuvem?). Contudo, pouco se sabe se os programadores também criam testes para o comportamento excepcional (por exemplo, o que acontece se a rede falhar durante o envio do arquivo?). Para minimizar esta falha de conhecimento, neste artigo desenhamos e realizamos um estudo de método misto para entender como 417 projetos Java de código aberto estão testando o comportamento excepcional usando os frameworks JUnit e TestNG, e a biblioteca AssertJ. Verificamos que 254 (60,91%) projetos têm pelo menos um método de teste dedicado a testar o comportamento excepcional. Verificamos também que o número de métodos de teste de comportamento excepcional em relação ao número total de métodos de teste se situa entre 0% e 10% em 317 (76,02%) projetos. Além disso, 239 (57,31%) projetos testam apenas até 10% das exceções utilizadas no sistema em teste (System Under Test - SUT). Quando se trata de aplicações móveis, descobrimos que, em geral, os programadores prestam menos atenção aos testes de comportamento excepcionais quando comparados com os programadores de desktop/servidor e multiplataforma. Em geral, encontramos mais métodos de teste abrangendo exceções personalizadas (as criadas no próprio projeto) quando comparadas com as excepções padrão disponíveis no Java Development Kit (JDK) ou em bibliotecas de terceiros. Para triangular os resultados, realizamos uma pesquisa com 66 programadores dos projetos que estudamos. Em geral, os resultados da pesquisa confirmam os nossos resultados. Em particular, a maioria dos participantes concorda que os programadores negligenciam frequentemente testes de comportamento excepcionais. Como implicações, os nossos números podem ser importantes para alertar os desenvolvedores de que devem ser empregados mais esforços na criação de testes para o comportamento excepcional.


  • Mostrar Abstract
  • O teste de software é uma atividade crucial para verificar a qualidade interna de um software. Durante os testes, os programadores frequentemente criam testes para o comportamento normal de uma determinada funcionalidade (por exemplo, um documento foi corretamente enviado para a nuvem?). Contudo, pouco se sabe se os programadores também criam testes para o comportamento excepcional (por exemplo, o que acontece se a rede falhar durante o envio do arquivo?). Para minimizar esta falha de conhecimento, neste artigo desenhamos e realizamos um estudo de método misto para entender como 417 projetos Java de código aberto estão testando o comportamento excepcional usando os frameworks JUnit e TestNG, e a biblioteca AssertJ. Verificamos que 254 (60,91%) projetos têm pelo menos um método de teste dedicado a testar o comportamento excepcional. Verificamos também que o número de métodos de teste de comportamento excepcional em relação ao número total de métodos de teste se situa entre 0% e 10% em 317 (76,02%) projetos. Além disso, 239 (57,31%) projetos testam apenas até 10% das exceções utilizadas no sistema em teste (System Under Test - SUT). Quando se trata de aplicações móveis, descobrimos que, em geral, os programadores prestam menos atenção aos testes de comportamento excepcionais quando comparados com os programadores de desktop/servidor e multiplataforma. Em geral, encontramos mais métodos de teste abrangendo exceções personalizadas (as criadas no próprio projeto) quando comparadas com as excepções padrão disponíveis no Java Development Kit (JDK) ou em bibliotecas de terceiros. Para triangular os resultados, realizamos uma pesquisa com 66 programadores dos projetos que estudamos. Em geral, os resultados da pesquisa confirmam os nossos resultados. Em particular, a maioria dos participantes concorda que os programadores negligenciam frequentemente testes de comportamento excepcionais. Como implicações, os nossos números podem ser importantes para alertar os desenvolvedores de que devem ser empregados mais esforços na criação de testes para o comportamento excepcional.

4
  • JOAO VICTOR DE LIMA MOURA
  • MODELO DE PREDIÇÃO DA BOLSA DE VALORES BASEADO EM DEEP LEARNING E MINERAÇÃO DE DADOS.
  • Orientador : XU YANG
  • MEMBROS DA BANCA :
  • EVANDRO DE BARROS COSTA
  • XU YANG
  • YURI SAPORITO
  • Data: 27/08/2020

  • Mostrar Resumo
  • Predizer o futuro é algo que a humanidade anseia, podendo preparar-se para as eventualidades que possam vir a ocorrer. Hoje, a facilidade de acesso a informações através de notícias e com o uso de programas que “leem” os sentimentos dos usuários na internet, é possível usar a linguagem computacional para tentar predizer o comportamento do mercado. No âmbito da economia, essa predição possibilita a oportunidade de novas formas de intervir no mercado econômico, possibilitando o vislumbre de cenários, o que pode facilitar a tomada de decisão sobre investimentos e o futuro econômico de empresários, empresas e governos. As ferramentas de inteligência artificial vem se tornando uma boa ponte entre as técnicas de previsão e as técnicas de engenharia úteis na abordagem do problema, apresentando tratamentos quantitativos e análises de limitações. Essa trabalho visa desenvolver um modelo de predição da bolsa de valores Brasileira baseando-se em mineração de notícias, e para isso, fará uso de técnicas como deep Learning, redes neurais artificiais, Processamento de linguagem natural para predizer o comportamento de ativos da Petrobras e itaú Unibanco. Vale ressaltar que o modelo proposto tem como finalidade ser uma ferramenta de auxilio de tomada de decisão e não uma ferramenta que deve ser levada com 100% de certeza. 


  • Mostrar Abstract
  • Predizer o futuro é algo que a humanidade anseia, podendo preparar-se para as eventualidades que possam vir a ocorrer. Hoje, a facilidade de acesso a informações através de notícias e com o uso de programas que “leem” os sentimentos dos usuários na internet, é possível usar a linguagem computacional para tentar predizer o comportamento do mercado. No âmbito da economia, essa predição possibilita a oportunidade de novas formas de intervir no mercado econômico, possibilitando o vislumbre de cenários, o que pode facilitar a tomada de decisão sobre investimentos e o futuro econômico de empresários, empresas e governos. As ferramentas de inteligência artificial vem se tornando uma boa ponte entre as técnicas de previsão e as técnicas de engenharia úteis na abordagem do problema, apresentando tratamentos quantitativos e análises de limitações. Essa trabalho visa desenvolver um modelo de predição da bolsa de valores Brasileira baseando-se em mineração de notícias, e para isso, fará uso de técnicas como deep Learning, redes neurais artificiais, Processamento de linguagem natural para predizer o comportamento de ativos da Petrobras e itaú Unibanco. Vale ressaltar que o modelo proposto tem como finalidade ser uma ferramenta de auxilio de tomada de decisão e não uma ferramenta que deve ser levada com 100% de certeza. 

5
  • LUIZ FELIPE SALES MACEDO BARBOSA
  • EXTRAÇÃO MULTIMODAL DE CARACTERÍSTICAS DE PEÇAS DE ROUPA PARA SISTEMAS DE RECOMENDAÇÃO USANDO REDES NEURAIS PROFUNDAS

  • Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
  • MEMBROS DA BANCA :
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • EVANDRO DE BARROS COSTA
  • BRUNO ALMEIDA PIMENTEL
  • JOSÉ ANTÃO BELTRÃO MOURA
  • Data: 28/08/2020

  • Mostrar Resumo
  • Este trabalho tem como objetivo auxiliar na identificação de atributos de peças de roupa usando uma estratégia multimodal e Deep Learning. Propomos o uso de imagens e descrições textuais não estruturadas para organizar catálogos de peças de roupa. Usamos estes dados para treinar arquiteturas de redes neurais profundas em problemas de classificação multi-classe, que em seguida sejam capazes de reconhecer automaticamente atributos a partir destes dois tipos de dado comumente encontrados em ambientes de comércio eletrônico. Forma experimentadas três classes de arquitetura: variações da arquitetura VGG para reconhecimento a partir de imagens; arquiteturas combinando camadas de embedding, convolucionais e LSTM para reconhecimento a partir de texto; e arquiteturas híbridas que combinam elementos de cada uma das arquiteturas anteriores. Usando uma base de dados que coletamos através de um Web Crawler de um grande site de e-commerce, mostramos em nossos experimentos que as arquiteturas híbridas conseguem um melhor resultado, por combinar ambas as modalidades de dados. Nossa metodologia possibilita a alimentação de sistemas de recomendação de peças de roupa, devido à possibilidade de compilação e estruturação dos dados do catálogo; além de servir para indicar descrições visuais e textuais insuficientes para um determinado atributo que possam ser melhoradas, quando os classificadores unimodais falham no reconhecimento deste atributo.


  • Mostrar Abstract
  • This work aims to assist in the identification of clothing attributes using a multimodal Deep
    Learning strategy.We propose the use of images and unstructured textual descriptions to organize
    clothing items catalogs. Such types of data are employed to train deep neural network architectures
    in multi-class classification problems, which are then able to automatically recognize
    attributes from these two types of data commonly found in e-commerce environments. Three
    classes of architecture were experimented: variations of the VGG architecture for recognition
    from images; architectures combining embedding, convolutional and recurrent layers for text
    recognition; and hybrid architectures that combine elements from each of the previous architectures.
    Using a database that we collected through a Web Crawler from a large e-commerce site,
    we show in our experiments that hybrid architectures achieve a better result in the classification
    task by combining both types of data. Our methodology makes it possible to feed clothing
    recommendation systems, due to the possibility of compiling and structuring the catalog data,
    in addition to allowing the detection of insufficient visual and textual descriptions for a given
    attribute that can be improved, when unimodal classifiers fail to recognize this attribute.

6
  • ANDRESSA CARVALHO MELO DA SILVEIRA
  • UM SISTEMA INTELIGENTE PARA A AVALIAÇÃO DE RISCO DA DRC E ENCAMINHAMENTO DE PACIENTES EM EMERGÊNCIA PARA UNIDADES DE SAÚDE

  • Orientador : LEANDRO DIAS DA SILVA
  • MEMBROS DA BANCA :
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • ANGELO PERKUSICH
  • EVANDRO DE BARROS COSTA
  • IVO AUGUSTO ANDRADE ROCHA CALADO
  • LEANDRO DIAS DA SILVA
  • Data: 28/08/2020

  • Mostrar Resumo
  • A alta incidência e prevalência de doença renal crônica (DRC), frequentemente causada
    por diagnósticos tardios, é um problema crítico de saúde pública, principalmente em países em desenvolvimento como o Brasil. As terapias de tratamento da DRC, como diálise e transplante renal, aumentam as taxas de morbimortalidade, além dos custos de saúde pública. Inicialmente, neste estudo foi analisado o uso de técnicas de aprendizado de máquina para auxiliar no diagnóstico precoce da DRC nos países em desenvolvimento. As análises comparativas qualitativas e quantitativas foram, respectivamente, conduzidas usando uma revisão sistemática da literatura e um experimento com técnicas de aprendizado de máquina, com o método de validação cruzada k-fold baseado no software Weka c e um conjunto de dados da DRC. A partir das análises, foi possível realizar uma discussão sobre a adequação das técnicas de aprendizado de máquina para a triagem do risco de DRC, concentrando-se em ambientes de baixa renda e de difícil acesso nos países em desenvolvimento, devido aos problemas específicos enfrentados, como, por exemplo, atendimento primário inadequado. Com base nos resultados do estudo foi possível observar que a árvore de decisão J48 é uma técnica de aprendizado de máquina adequada para essa triagem nos países em desenvolvimento, devido à fácil interpretação de resultados de classificação, com 95,00% de precisão, alcançando concordância quase perfeita com a opinião de um nefrologista experiente. Por outro lado, as técnicas de floresta aleatória, naive Bayes, máquina de vetores de suporte, perceptron multicamada e vizinho k mais próximo, respectivamente, ofereceram 93,33%, 88,33%, 76,66%, 75,00% e 71,67% de precisão, apresentando pelo menos concordância moderada com o nefrologista, à custa de uma interpretação mais difícil dos resultados da classificação. Com esta conclusão, a árvore de decisão J48 foi usada para desenvolver um sistema inteligente para avaliar o risco de DRC em países em desenvolvimento. Além disso, quando o paciente com DRC está fora de seu município e ocorre uma emergência, o sistema recomenda que ele compareça a uma unidade de saúde apropriada, dependendo da situação clínica, para evitar cuidados de saúde tardios ou inadequados.


  • Mostrar Abstract
  • A alta incidência e prevalência de doença renal crônica (DRC), frequentemente causada
    por diagnósticos tardios, é um problema crítico de saúde pública, principalmente em países em desenvolvimento como o Brasil. As terapias de tratamento da DRC, como diálise e transplante renal, aumentam as taxas de morbimortalidade, além dos custos de saúde pública. Inicialmente, neste estudo foi analisado o uso de técnicas de aprendizado de máquina para auxiliar no diagnóstico precoce da DRC nos países em desenvolvimento. As análises comparativas qualitativas e quantitativas foram, respectivamente, conduzidas usando uma revisão sistemática da literatura e um experimento com técnicas de aprendizado de máquina, com o método de validação cruzada k-fold baseado no software Weka c e um conjunto de dados da DRC. A partir das análises, foi possível realizar uma discussão sobre a adequação das técnicas de aprendizado de máquina para a triagem do risco de DRC, concentrando-se em ambientes de baixa renda e de difícil acesso nos países em desenvolvimento, devido aos problemas específicos enfrentados, como, por exemplo, atendimento primário inadequado. Com base nos resultados do estudo foi possível observar que a árvore de decisão J48 é uma técnica de aprendizado de máquina adequada para essa triagem nos países em desenvolvimento, devido à fácil interpretação de resultados de classificação, com 95,00% de precisão, alcançando concordância quase perfeita com a opinião de um nefrologista experiente. Por outro lado, as técnicas de floresta aleatória, naive Bayes, máquina de vetores de suporte, perceptron multicamada e vizinho k mais próximo, respectivamente, ofereceram 93,33%, 88,33%, 76,66%, 75,00% e 71,67% de precisão, apresentando pelo menos concordância moderada com o nefrologista, à custa de uma interpretação mais difícil dos resultados da classificação. Com esta conclusão, a árvore de decisão J48 foi usada para desenvolver um sistema inteligente para avaliar o risco de DRC em países em desenvolvimento. Além disso, quando o paciente com DRC está fora de seu município e ocorre uma emergência, o sistema recomenda que ele compareça a uma unidade de saúde apropriada, dependendo da situação clínica, para evitar cuidados de saúde tardios ou inadequados.

7
  • IALLY CRISTINA SILVEIRA DE ALMEIDA
  • UMA ANÁLISE COMPARATIVA DE ABORDAGENS PARA A GERAÇÃO DE TESTES ABSTRATOS BASEADA EM
    MODELOS DE REDES DE PETRI COLORIDAS

  • Orientador : LEANDRO DIAS DA SILVA
  • MEMBROS DA BANCA :
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • ANGELO PERKUSICH
  • LEANDRO DIAS DA SILVA
  • LEONARDO MELO DE MEDEIROS
  • Lenardo Chaves e Silva
  • Data: 28/08/2020

  • Mostrar Resumo
  • O teste baseado em modelos (Model-Based Tesing - MBT) baseia-se em modelos do comportamento do sistema para gerar testes abstratos. Testadores reutilizam especificações formais (e.g., modelos de redes de Petri coloridas (Coloured Petri Nets - CPN)) para projetar testes para sistemas críticos de segurança. Neste trabalho, por uma revisão terciária, foi identificado um número considerável de revisões de literatura focadas na análise do uso de linguagens de especificação para realizar MBT. Entretanto, ainda existe uma lacuna de pesquisa em relação à análise de abordagens baseadas em CPN para geração de testes abstratos. Para preencher essa lacuna de pesquisa, neste trabalho, uma análise comparativa de abordagens para geração de testes abstratos com base em modelos CPN foi também realizada, por meio de uma revisão sistemática da literatura e um estudo de caso sobre sistemas médicos: eletrocardiografia e bomba de infusão de insulina. A partir da análise comparativa, são fornecidas informações para os testadores que precisam selecionar a abordagem de geração de testes abstratos mais adequada ao aplicar MBT usando CPN. Com os resultados obtidos, é possível identificar que a escolha depende do tamanho do espaço de estados do modelo CPN.


  • Mostrar Abstract
  • O teste baseado em modelos (Model-Based Tesing - MBT) baseia-se em modelos do comportamento do sistema para gerar testes abstratos. Testadores reutilizam especificações formais (e.g., modelos de redes de Petri coloridas (Coloured Petri Nets - CPN)) para projetar testes para sistemas críticos de segurança. Neste trabalho, por uma revisão terciária, foi identificado um número considerável de revisões de literatura focadas na análise do uso de linguagens de especificação para realizar MBT. Entretanto, ainda existe uma lacuna de pesquisa em relação à análise de abordagens baseadas em CPN para geração de testes abstratos. Para preencher essa lacuna de pesquisa, neste trabalho, uma análise comparativa de abordagens para geração de testes abstratos com base em modelos CPN foi também realizada, por meio de uma revisão sistemática da literatura e um estudo de caso sobre sistemas médicos: eletrocardiografia e bomba de infusão de insulina. A partir da análise comparativa, são fornecidas informações para os testadores que precisam selecionar a abordagem de geração de testes abstratos mais adequada ao aplicar MBT usando CPN. Com os resultados obtidos, é possível identificar que a escolha depende do tamanho do espaço de estados do modelo CPN.

8
  • JEAN BARROS TEIXEIRA
  • IDENTIFICAÇÃO AUTOMÁTICA DA PRESENÇA SOCIAL EM DISCUSSÕES ONLINE ESCRITAS EM PORTUGUÊS

  • Orientador : EVANDRO DE BARROS COSTA
  • MEMBROS DA BANCA :
  • EVANDRO DE BARROS COSTA
  • PATRICK HENRIQUE DA SILVA BRITO
  • RAFAEL FERREIRA LEITE DE MELLO
  • RODRIGO LINS RODRIGUES
  • Data: 28/08/2020

  • Mostrar Resumo
  • Esta dissertação de mestrado apresenta um método que permite a análise automatizada de mensagens provenientes de fóruns online de ensino a distância escritas em português brasileiro. Particularmente, analisa o problema da codificação de mensagens de discussão para níveis de presença social, um importante construto do modelo de Comunidade de Investigação amplamente utilizado na aprendizagem online. Apesar de existirem técnicas de codificação para a presença social na língua inglesa, a literatura ainda é carente em métodos para as demais línguas, como o português. O método aqui proposto utiliza-se de um conjunto de 158 características extraídas de dois recursos, LIWC e Coh-Metrix, disponíveis para análise textual através de técnicas de Mineração de Texto, para criar um classificador para cada uma das três categorias da presença social. Para isso foram utilizados três tipos de algoritmos, Random Forest, AdaBoost e XGBoost onde o melhor modelo desenvolvido atingiu 85,68% de acurácia e índice Kappa (k) de 0,70, o que representa uma concordância substancial, e está bem acima do grau de puro acaso. Este trabalho também provê uma análise da natureza da presença social, observando as características de classificação que foram mais relevantes para distinguir as três categorias da presença social e uma análise comparativa sobre as principais características identificadas nas fases da presença em diferentes domínios.


  • Mostrar Abstract
  • Esta dissertação de mestrado apresenta um método que permite a análise automatizada de mensagens provenientes de fóruns online de ensino a distância escritas em português brasileiro. Particularmente, analisa o problema da codificação de mensagens de discussão para níveis de presença social, um importante construto do modelo de Comunidade de Investigação amplamente utilizado na aprendizagem online. Apesar de existirem técnicas de codificação para a presença social na língua inglesa, a literatura ainda é carente em métodos para as demais línguas, como o português. O método aqui proposto utiliza-se de um conjunto de 158 características extraídas de dois recursos, LIWC e Coh-Metrix, disponíveis para análise textual através de técnicas de Mineração de Texto, para criar um classificador para cada uma das três categorias da presença social. Para isso foram utilizados três tipos de algoritmos, Random Forest, AdaBoost e XGBoost onde o melhor modelo desenvolvido atingiu 85,68% de acurácia e índice Kappa (k) de 0,70, o que representa uma concordância substancial, e está bem acima do grau de puro acaso. Este trabalho também provê uma análise da natureza da presença social, observando as características de classificação que foram mais relevantes para distinguir as três categorias da presença social e uma análise comparativa sobre as principais características identificadas nas fases da presença em diferentes domínios.

9
  • JOSE HENRICK VIANA RAMALHO
  • Omnino: plataforma aberta de robô omnidirecional para enxame

  • Orientador : HEITOR JUDISS SAVINO
  • MEMBROS DA BANCA :
  • ARMANDO ALVES NETO
  • ERICK DE ANDRADE BARBOZA
  • HEITOR JUDISS SAVINO
  • ICARO BEZERRA QUEIROZ DE ARAUJO
  • Data: 31/08/2020

  • Mostrar Resumo
  • Este trabalho apresenta uma plataforma aberta de um robô para atividades de pesquisa e educacionais. A plataforma é definida como um robô omnidirecional, que é um dos primeiros passos no currículo de robótica quando se deseja controlar um robô, dado que este não impões restrições ao movimento num plano. Os robôs são projetados para serem de baixo custo e com acesso aberto ao software e hardware. A maior parte do projeto mecânico també é fácil de imprimir nas impressoras 3D comumente usadas. O robô é integrado com a plataforma ROS - Robot Operating Systems, amplamente utilizada na comunidade de robótica, e o modelo de simulação em ROS-Gazebo é fornecido para permitir uma passagem fácil do ambiente de simulação ao ambiente experimental. Experimentos reais com os robôs propostos são mostrados, assim como a plataforma de simulação com múltiplos robôs.


  • Mostrar Abstract
  • Este trabalho apresenta uma plataforma aberta de um robô para atividades de pesquisa e educacionais. A plataforma é definida como um robô omnidirecional, que é um dos primeiros passos no currículo de robótica quando se deseja controlar um robô, dado que este não impões restrições ao movimento num plano. Os robôs são projetados para serem de baixo custo e com acesso aberto ao software e hardware. A maior parte do projeto mecânico també é fácil de imprimir nas impressoras 3D comumente usadas. O robô é integrado com a plataforma ROS - Robot Operating Systems, amplamente utilizada na comunidade de robótica, e o modelo de simulação em ROS-Gazebo é fornecido para permitir uma passagem fácil do ambiente de simulação ao ambiente experimental. Experimentos reais com os robôs propostos são mostrados, assim como a plataforma de simulação com múltiplos robôs.

10
  • EDUARDO FELIPE DE SOUZA
  • MMI-GAN: Multi Medical Imaging Translation using GenerativeAdversarial Network

  • Orientador : MARCELO COSTA OLIVEIRA
  • MEMBROS DA BANCA :
  • MARCELO COSTA OLIVEIRA
  • TIAGO FIGUEIREDO VIEIRA
  • PAULO MAZZONCINI DE AZEVEDO MARQUES
  • Data: 23/11/2020

  • Mostrar Resumo
  • Medical image translation is considered a new frontier in the field of medical image analysis, with great potential for application. However, the existing approaches have limited scalability and robustness in handling more than two domains of images, since different models must be created independently for each pair of domains. In addition, there are problems with the quality of the translated images. To solve these limitations, we developed MMI-GAN, a new approach for translation between multiple image domains, capable of translating intermodal (CT and RM) and intramodal (PD, T1 and T2) images. We demonstrate the efficiency of the conditional in learning to map between several domains using only a single generator and a discriminator, training data from images of all domains. We propose a GAN architecture that can be easily extended to other translation tasks for the benefit of the medical imaging community. The MMI-GAN is based on recent advances in the area of GANs (Generative Adversarial Network), using an adversary structure with a new combination of non-adversarial losses, which allows the simultaneous training of several data sets with different domains in the same network, as well as the innovative capacity to translate with flexibility between and intramodalities.


  • Mostrar Abstract
  • Medical image translation is considered a new frontier in the field of medical image analysis, with great potential for application. However, the existing approaches have limited scalability and robustness in handling more than two domains of images, since different models must be created independently for each pair of domains. In addition, there are problems with the quality of the translated images. To solve these limitations, we developed MMI-GAN, a new approach for translation between multiple image domains, capable of translating intermodal (CT and RM) and intramodal (PD, T1 and T2) images. We demonstrate the efficiency of the conditional in learning to map between several domains using only a single generator and a discriminator, training data from images of all domains. We propose a GAN architecture that can be easily extended to other translation tasks for the benefit of the medical imaging community. The MMI-GAN is based on recent advances in the area of GANs (Generative Adversarial Network), using an adversary structure with a new combination of non-adversarial losses, which allows the simultaneous training of several data sets with different domains in the same network, as well as the innovative capacity to translate with flexibility between and intramodalities.

11
  • BENEDITO FERNANDO ALBUQUERQUE DE OLIVEIRA
  • Atoms of Confusion Do Really Cause Confusion? A Controlled Experiment Using Eye Tracking

  • Orientador : MARCIO DE MEDEIROS RIBEIRO
  • MEMBROS DA BANCA :
  • MARCIO DE MEDEIROS RIBEIRO
  • ALAN PEDRO DA SILVA
  • LEOPOLDO MOTTA TEIXEIRA
  • Data: 26/11/2020

  • Mostrar Resumo
  • Compreensão de código é crucial nas atividades de manutenção de software, entretanto ela pode ser prejudicada por mal-entendidos e padrões código confusos, ou seja, átomos de confusão. Eles são pequenos trechos de código usando construções específicas de uma linguagem de programação, como Operadores Condicionais e Operadores Vírgula. Um estudo anterior mostrou que os átomos de confusão afetam o desempenho dos desenvolve- dores, ou seja, o tempo e a precisão, e aumentam os mal-entendidos com relação ao código. No entanto, o conhecimento empírico do impacto de tais átomos na compreensão do código ainda é escasso, especialmente quando se trata de analisar esse impacto na atenção visual dos desenvolvedores. O presente estudo avalia se os desenvolvedores interpretam mal o código na presença de átomos de confusão com um rastreador ocular. Para isso, medimos o tempo, a precisão e analisamos a distribuição da atenção visual. Conduzimos um experimento controlado com 30 alunos e profissionais de software. Pedimos aos su- jeitos que especifiquem a saída de três tarefas com átomos e três sem átomos designados aleatoriamente usando um Quadrado Latino. Usamos uma câmera de rastreamento ocular para detectar a atenção visual dos participantes enquanto resolvemos as tarefas. De uma perspectiva agregada, observamos um aumento de 43,02% no tempo e 36,8% nas transições de olhar em trechos de código com átomos. Além disso, observamos um aumento de 163,06% no número de regressões quando o átomo está presente. Para precisão, nenhuma diferença estatisticamente significativa foi observada. Também confirmamos que as regiões que recebem mais atenção foram as regiões com átomos. Nossas descobertas reforçam que os átomos atrapalham o desempenho e a compreensão dos desenvolvedores. Portanto, os desenvolvedores devem evitar escrever código com eles.

  • Mostrar Abstract
  • Code comprehension is crucial in software maintenance activities, though it can be hindered by misunderstandings and confusion patterns, namely, atoms of confusion. They are small pieces of code using specific programming language constructs, such as Conditional Operators and Comma Operators. A previous study showed that these atoms of confusion impact developers' performance, i.e., time and accuracy, and increase code misunderstandings. However, empirical knowledge of the impact of such atoms on code comprehension is still scarce, especially when it comes to analyzing that impact on developers' visual attention. The present study evaluates whether developers misunderstand the code in the presence of atoms of confusion with an eye tracker. For this purpose, we measure time, accuracy, and analyze the distribution of visual attention. We conduct a controlled experiment with 30 students and software practitioners. We ask the subjects to specify the output of three tasks with atoms and three without atoms randomly assigned using a Latin Square design. We use an eye-tracking camera to detect the visual attention of the participants while solving the tasks. From an aggregated perspective, we observed an increase by 43.02% in time and 36.8% in gaze transitions in code snippets with atoms. For accuracy, no statistically significant difference was observed. We also confirm that the regions that receive most of the eye attention were the regions with atoms. Our findings reinforce that atoms hinder developers’ performance and comprehension. So, developers should avoid writing code with them.

12
  • BRUNO HENRIQUE LIRA DOS ANJOS
  • PREDCGAN: An approach to synthetic lung nodule generation with the use of Pre-Training.

  • Orientador : MARCELO COSTA OLIVEIRA
  • MEMBROS DA BANCA :
  • MARCELO COSTA OLIVEIRA
  • THALES MIRANDA DE ALMEIDA VIEIRA
  • PAULO MAZZONCINI DE AZEVEDO MARQUES
  • Data: 27/11/2020

  • Mostrar Resumo
  • Early treatment and detection of lung cancer is important. However, the classification of nodules by neural convolutional network using few real computed tomography images is a difficult process. To work around this problem, this work proposes PREDCGAN. In it we add a pre-training in the pipeline of a generative adversarial network for the generation of pulmonary nodules. As a result, the use as a base increase of these synthetic images in conjunction with classical techniques to classify pulmonary nodules was found to be a value of 0.791 AUC, being the best value compared to other methods found in this work. 


  • Mostrar Abstract
  • Early treatment and detection of lung cancer is important. However, the classification of nodules by neural convolutional network using few real computed tomography images is a difficult process. To work around this problem, this work proposes PREDCGAN. In it we add a pre-training in the pipeline of a generative adversarial network for the generation of pulmonary nodules. As a result, the use as a base increase of these synthetic images in conjunction with classical techniques to classify pulmonary nodules was found to be a value of 0.791 AUC, being the best value compared to other methods found in this work. 

13
  • MATHEUS SOARES DE ARAÚJO
  • ANÁLISE DE CONFIABILIDADE DE MONITORES MULTIPARAMÉTRICOS UTILIZADOS EM UNIDADES DE TERAPIA INTENSIVA

  • Orientador : LEANDRO DIAS DA SILVA
  • MEMBROS DA BANCA :
  • LEANDRO DIAS DA SILVA
  • ALVARO ALVARES VDE CARVALHO CESAR SOBRINHO
  • THIAGO DAMASCENO CORDEIRO
  • LEONARDO MONTECCHI
  • GILBERTO FRANCISCO MARTHA DE SOUZA
  • Data: 30/11/2020

  • Mostrar Resumo
  • Ao longo dos anos utilização de sistemas médicos tem sido necessária para auxiliar profissionais de saúde no âmbito da saúde.  De acordo com o ambiente utilizado, sistemas médicos necessitam cumprir fielmente com os requisitos não funcionais de confiabilidade. Um monitor multiparamétrico é um equipamento responsável por monitorar indicadores de saúdede um paciente comumente utilizado em unidades de terapia intensiva (UTI). Unidades deterapia intensiva são ambientes de monitorização contínua que hospedam pacientes em estados graves de saúde.  Portanto, ambientes como os de UTI necessitam utilizar sistemas médicos que possuem alta confiabilidade, pois a indisponibilidade desse sistema pode acarretarem sérios problemas para a vida do paciente.  Com arcabouço CHESS, é possível modelar um sistema utilizando Unified Modeling Language (UML) e Systems Modeling Language (SYSML) e adicionar informações de probabilidade de falha nos componentes do sistema,através disso o CHESS permite a execução de análises de confiabilidade do sistema modelado.  Portanto, este trabalho modela um monitor multiparamétrico para ser utilizado emuma UTI e executa análises de confiabilidade utilizando o arcabouço CHESS. Com as análises de confiabilidade executadas de um monitor multiparamétrico para um ambiente de UTI,foi possível realizar discussões sobre a confiabilidade de um monitor multiparamétrico emdiferentes intervalos de tempo e como a manutenção preventiva realizada em um monitormonitor multiparamétrico pode aumentar a confiabilidade do monitor multiparamétrico emum ambiente de UTI.


  • Mostrar Abstract
  • A multi-parameter monitoring system is usually applied to keep track of the clinical condition of patients in Intensive Care Units (ICUs). ICUs are continuous monitoring environments used to host patients in serious health conditions. These Systems of Systems (SoS), used in ICUs comprise of a set of Constituent Systems (CS) to measure parameters such as heart rate, respiratory frequency, and temperature. Due to the critical nature and relevance of ICUs, such SoS shall be as reliable as possible. This is specially true in emergency situations, as is the case of the COVID-19 outbreak, which resulted in the burden of health care systems. Multi-parameter monitoring systems in ICUs shall have high levels of reliability, given that failures can provide risks to the safety of patients. We performed relia- bility analysis and provided insights to assist the management of multi-parameter monitoring systems used in ICUs, also considering preventive maintenance. We elicited requirements by interviewing a professional with more than fifteen years of hospital experience in maintenance. In addition, we analyzed existing systems and literature reviews. Therefore, we modeled multi-parameter monitoring systems for ICUs using the CHESS-ML modeling language. Afterward, we conducted reliability analysis by applying the CHESS-SBA plugin state-based analysis, simulating different scenarios. Based on the reliability analysis, we identified that main power supply and the battery are the CS that present major negative impacts in the total reliability the entire system in failure situations. In emergency situations, reduced time ranges of preventive maintenance, when applied during a short period, showed to be promising strategies to increase quality of multi-parameter monitoring systems for ICUs.

SIGAA | NTI - Núcleo de Tecnologia da Informação - (82) 3214-1015 | Copyright © 2006-2024 - UFAL - sig-app-3.srv3inst1 24/04/2024 22:09