|
Dissertações |
|
1
|
-
TIAGO PAULINO SANTOS
-
Representação, visualização e análise de grandes volumes de dados urbanos espaço-temporais de segurança pública
-
Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
-
MEMBROS DA BANCA :
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
RIAN GABRIEL SANTOS PINHEIRO
-
LUIS GUSTAVO NONATO
-
Data: 25/01/2024
-
-
Mostrar Resumo
-
As transformações tecnológicas advindas da transformação digital de órgãos públicos e da internet das coisas têm possibilitado a geração e coleta de grandes volumes de dados, que podem ser posteriormente utilizados em análises precisas. Para a segurança pública, a aplicação de novas tecnologias nas atividades de análise criminal, patrulhamento e repressão ao crime trazem inúmeras possibilidades também, como conseguir visualizar de maneira profunda o desempenho das ações da corporação, monitorar a atividade criminosa, compreender padrões e buscar alternativas para implementar melhores políticas de segurança. Big Data também já não é uma realidade distante das corporações de segurança pública. Dispositivos de rastreamento, câmeras de vigilância, sistemas de monitoramento, sistemas de atendimento e muitas outras fontes de informação já provêm um grande volume de dados que precisam ser devidamente tratados para que seja possível obtenção de conhecimento relevante. Nos últimos anos, muitos trabalhos científicos têm proposto o uso de algoritmos de Aprendizado de Máquina para reconhecer padrões espaciais e temporais de crimes. Nesse contexto, propomos neste trabalho uma ferramenta de análise visual de dados urbanos espaço-temporais, e um novo algoritmo para detecção de manchas criminais. Estas soluções foram validadas usando bases de dados da Polícia Militar do Estado de Alagoas (PMAL) em estudos de caso onde o objetivo era analisar dados espaço-temporais de crimes e de patrulhamento. Os resultados desta pesquisa terão importância não só do ponto de visto científico, mas também poderão ser aproveitados pela PMAL para otimizar seus processos de tomada de decisão.
-
Mostrar Abstract
-
Technological transformations arising from the digital transformation of public bodies and the internet of things have enabled the generation and collection of large volumes of data, which can later be used in precise analyses. For public security, the application of new technologies in criminal analysis, patrolling and crime repression activities also bring countless possibilities, such as being able to visualize in depth the performance of the corporation's actions, monitor criminal activity, understand patterns and seek alternatives to implement better security policies. Big Data is also no longer a distant reality for public security corporations. Tracking devices, surveillance cameras, monitoring systems, customer service systems and many other sources of information already provide a large volume of data that needs to be properly processed in order to obtain relevant knowledge. In recent years, many scientific works have proposed the use of Machine Learning algorithms to recognize spatial and temporal patterns of crimes. In this context, we propose in this work a visual analysis tool for spatio-temporal urban data, and a new algorithm for detecting crime spots. These solutions were validated using databases from the Military Police of the State of Alagoas (PMAL) in case studies where the objective was to analyze spatio-temporal data on crimes and patrolling. The results of this research will be important not only from a scientific point of view, but can also be used by PMAL to optimize its decision-making processes.
|
|
2
|
-
MATHEUS MACHADO VIEIRA
-
Uma meta-heurística para o Problema da Mochila com Penalidades
-
Orientador : RIAN GABRIEL SANTOS PINHEIRO
-
MEMBROS DA BANCA :
-
BRUNO COSTA E SILVA NOGUEIRA
-
Dimas Cassimiro do Nascimento Filho
-
ERICK DE ANDRADE BARBOZA
-
RIAN GABRIEL SANTOS PINHEIRO
-
Data: 31/01/2024
-
-
Mostrar Resumo
-
O problema da mochila está entre um dos problemas combinatórios mais conhecidos. Seu potencial de aplicação e as inúmeras variações que existem fazem dele um bom modelo para diversos problemas práticos da vida real. Mais especificamente, este trabalho aborda uma variante do problema, o Problema da Mochila com Penalidades (PMP, ou, em inglês, KPF). Nesta variante, é fornecido um conjunto de itens e um grafo de conflitos, e o objetivo é identificar uma coleção de itens que respeite a capacidade da mochila enquanto maximiza o valor total dos itens menos as penalidades pelos itens conflitantes. O PMP tem tido algum engajamento tanto por sua proximidade com outros problemas famosos, como o do conjunto independente de peso máximo, e suas aplicações. Alguns exemplos compreendem desde a organização da força de trabalho em chão de fábrica até problemas de decisão em investimentos. Este trabalho apresenta um novo método para o problema utilizando-se de ferramentas já bem estabelecidas, baseado na hibridização de Iterated Local Search (ILS), Variable Neighborhood Descent (VND), e elementos de Tabu Search. Nosso método leva em consideração quatro estruturas de vizinhança, introduzidas com estruturas de dados eficientes para explorá-las. Resultados experimentais demonstram que a abordagem proposta supera os algoritmos de ponta na literatura. Em particular, o método proposto fornece soluções superiores em tempos de computação significativamente mais curtos em todas as instâncias de referência. Também foi incluída uma análise de como as estruturas de dados propostas influenciaram tanto a qualidade das soluções quanto o tempo de execução do método.
-
Mostrar Abstract
-
The knapsack problem is among one the most well-known and studied optimization problems. Its potential applications make it a good model for a real-life problem. In this work, the Knapsack Problem with Forfeits will be addressed. In this variant, pairs of conflicting items in the solution imply a penalty. Given a set of items and a conflict graph, the objective is to find a collection of items that respect the knapsack's capacity and maximizes the total value of the items minus the penalties. This problem can be applied from the organization of the workforce on the shop floor to investment decision problems. This work proposes the construction of a new method for the problem using well-established tools, the ILS meta-heuristic, and the VND local search heuristic, and there is also the possibility of verifying other heuristics and meta-heuristics. Preliminary results have already been obtained, showing that the new method surpasses others approaches. It can be expected that this work offers an indication of the path that can be taken to refine the resolution of the problem, presenting analyzes and comparisons between methods applied to the problem.
|
|
3
|
-
RENDRIKSON DE OLIVEIRA SOARES
-
Uma Arquitetura Computacional Baseada em Tecnologia Blockchain para Habilitar a Transparência dos Serviços de Audiência e Pagamentos em Plataformas de Streaming
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
FABIO JOSE COUTINHO DA SILVA
-
PAULO CAETANO DA SILVA
-
Data: 26/02/2024
-
-
Mostrar Resumo
-
A tecnologia Blockchain possibilita o registro seguro e o compartilhamento de informações sem uma autoridade central, usando criptografia em uma rede distribuída de computadores. Amplamente utilizada na indústria de software, oferece recursos de autenticidade e segurança em transações online. Plataformas de streaming, como Youtube, Spotify, dentre outras, são exemplos de sistemas que lidam com a transmissão de dados de diferentes tipos, como vídeos, músicas e podcasts, e que precisam oferecer recursos de transparência, rastreabilidade e segurança na manipulação desses dados em sistemas de software. No campo de pesquisa da indústria do entretenimento digital, identificou-se no estado da arte uma lacuna de pesquisa no que diz respeito à aplicação da tecnologia Blockchain para habilitar a transparência nos serviços de audiência e pagamentos em plataformas de streaming. Este trabalho propõe a inserção de uma camada Blockchain à infraestrutura operacional existente em plataformas de streaming disponíveis no mercado. Essa camada é encarregada de gerenciar informações individuais dos conteúdos, servindo como meio de verificação e auditoria das transações associadas a cada mídia digital. Além disso, ela permite a transferência de recursos monetários por meio da rede Blockchain. Para atingir o objetivo proposto, elaborou-se uma arquitetura de software contendo os componentes, interfaces, relacionamentos e restrições dos requisitos funcionais que representam esse domínio de aplicação. Nesse processo, adotou-se o modelo de especificação de arquitetura denominado C4 model, escolhido devido à sua característica de documentação compreensível tanto para um público técnico quanto não técnico. Após a especificação da arquitetura, foram implementados os componentes fundamentais para os testes e operação da solução proposta nesta pesquisa. Dessa maneira, desenvolveu-se um middleware encarregado de capturar e gerenciar os mecanismos de audiência de cada conteúdo de maneira individual. Isso ocorre por meio de um serviço de geração automática de contratos inteligentes que é executado quando os conteúdos são disponibilizados e consumidos nas plataformas de streaming. Posteriormente, desenvolveu-se uma aplicação web que simula as operações de uma plataforma de streaming para integrar ao middleware desenvolvido, permitindo a realização de testes, tanto financeiros, quanto funcionais. Os testes foram conduzidos em três redes Blockchain distintas, revelando a viabilidade técnica da solução proposta. Isso foi alcançado por meio da interceptação e do gerenciamento automático das informações de audiência e pagamentos utilizando contratos inteligentes. Além disso, a viabilidade financeira da implementação foi analisada, resultando em um custo médio de US$ 0,000518 em uma das redes Blockchain. Adicionalmente, realizou-se uma pesquisa envolvendo criadores de conteúdo com canais monetizados e desenvolvedores de software especializados em Blockchain. O objetivo da consulta a estes profissionais foi avaliar e obter feedback sobre a nova arquitetura de software e a viabilidade da solução proposta. Dessa forma, os resultados englobaram feedbacks que validaram a implementação da solução computacional, confirmando também a operacionalização da plataforma por parte dos criadores de conteúdo de plataformas de streaming.
-
Mostrar Abstract
-
Blockchain technology enables secure recording and sharing of information without a central authority, using encryption across a distributed network of computers. Widely used in the software industry, it offers authenticity and security features in online transactions. Streaming platforms, such as YouTube and Spotify, among others, are examples of systems that deal with the transmission of data of different types, such as videos, music, and podcasts, and that need to offer transparency, traceability, and security features when handling this data in software systems. In the digital entertainment industry, a research gap was identified in the state of the art concerning the application of Blockchain technology to enable transparency in audience services and payments on streaming. This work proposes inserting a Blockchain layer into the existing operational infrastructure of streaming platforms available on the market. This layer manages individual content information and verifies and audits transactions associated with each digital media. Furthermore, it allows the transfer of monetary resources through the Blockchain network. A software architecture was created to achieve the proposed objective containing the components, interfaces, relationships, and constraints of the functional requirements representing this application domain. In this process, an architecture specification model, the C4 model, was adopted due to its understandable documentation characteristic for both technical and non-technical audiences. After specifying the architecture, the fundamental components for testing and operating the solution proposed in this research were implemented. In this way, middleware was developed to capture and manage the audience mechanisms for each piece of content individually. This occurs through an automatic smart contract generation service executed when content is available and consumed on streaming platforms. Subsequently, a web application was developed that simulates the operations of a streaming platform to integrate with the middleware developed, allowing tests to be carried out, both financial and functional. The tests were conducted on three different Blockchain networks, revealing the technical feasibility of the proposed solution. This was achieved through the interception and automatic management of audience and payment information using smart contracts. Furthermore, the financial viability of the implementation was analyzed, resulting in an average cost of US$0.000518 on one of the Blockchain networks. Additionally, the research involved content creators with monetized channels and software developers specializing in Blockchain. The objective of consulting these professionals was to evaluate and obtain feedback on the new software architecture and the feasibility of the proposed solution. Thus, the results included feedback that validated the implementation of the computational solution, confirming the platform's operationalization by content creators on streaming platforms.
|
|
4
|
-
GEAN DA SILVA SANTOS
-
USO DE MEDIDAS DE TEORIA DA INFORMAÇÃO EXTRAÍDAS DE DADOS DA INTERFACE OBD-II PARA IDENTIFICAÇÃO DO MOTORISTA
-
Orientador : ANDRE LUIZ LINS DE AQUINO
-
MEMBROS DA BANCA :
-
ANDRE LUIZ LINS DE AQUINO
-
FABIANE DA SILVA QUEIROZ
-
RAQUEL DA SILVA CABRAL
-
OSVALDO ANIBAL ROSSO
-
DENIS LIMA DO ROSARIO
-
Data: 25/03/2024
-
-
Mostrar Resumo
-
Os veículos possuem cada vez mais sensores embutidos, tais sensores são interligados em uma rede interna chamada CAN e seus valores podem ser acessados através da interface OBD-II. Isso permite uma grande quantidade de dados de diferentes variáveis do ato de dirigir. Vários trabalhos propuseram aplicações que se beneficiam da disponibilidade desses dados. A maioria dos aplicativos cai em um dos seguintes problemas: classificação, agrupamento, predição. Em geral, os trabalhos realizam o seguinte processo: extração de dados, dados de limpeza e transformação, modelo de treinamento, modelo de avaliação. Neste trabalho propõe-se extrair medidas da Teoria da Informação para agregar dados ao processo. Com isso, pretende-se ter novos valores para adicionar ou substituir o pré-processamento dos dados e então avaliar o desempenho do modelo. Para avaliação, pretende-se analisar duas aplicações: identificação de condutores (problema de classificação) e previsão de emissão de gases poluentes (problema de previsão). Resultados preliminares foram obtidos para a identificação do motorista. Um experimento foi feito para uma pequena e uma grande quantidade de dados. Para a pequena quantidade de dados, o processo conforme a literatura se mostrou superior na maioria dos algoritmos de classificação em relação ao processo proposto. Para a grande quantidade de dados a diferença entre os processos ficou pequena, porém com o processo segundo a literatura sendo um pouco superior com exceção do algoritmo Naive Bayes (que teve melhor desempenho com o processo proposto, porém teve acurácia inferior aos demais classificadores). O próximo passo é comparar o processo proposto e aquele comumente utilizado na literatura para um problema de predição: a predição de emissões de gases poluentes.
-
Mostrar Abstract
-
Vehicles have more and more built-in sensors, such sensors are interconnected in an internal network called CAN and their values can be accessed through the OBD-II interface. This allows a large amount of data from different variables from the act of driving. Several works have proposed applications that benefit from the availability of these data. Most applications fall into one of the following problems: classification, grouping, prediction. In general, the works perform the following process: data extraction, cleaning and transformation data, training model, evaluation model. In this work it is proposed to extract measures from Information Theory to add data to pro- cess. With this, it is intended to have new values to add or replace the data pre-processing and then evaluate the performance of the model. For evaluation, it is intended to analyze two applications: driver identification (classification problem) and pollutant gas emission prediction (prediction problem). Preliminary results were obtained for driver identification. An experiment was done for a small and a large amount of data. For the small amount of data, the process according to the literature proved to be superior in most classification algorithms in relation to the proposed process. For the large amount of data, the difference between the processes became small, however with the process according to the literature being slightly superior with the exception of the Naive Bayes algorithm (which performed better with the proposed process, but had lower accuracy than the other classifiers). The next step is to compare the proposed process and the one commonly used in the litera- ture for a prediction problem: prediction of polluting gas emissions.
|
|
5
|
-
JOSE WILLIAMS BARBOSA NOBRE
-
Análise da Percepção de Estudantes Online sobre Painéis de Bordo para Orientar seus Objetivos de Aprendizagem.
-
Orientador : RANILSON OSCAR ARAUJO PAIVA
-
MEMBROS DA BANCA :
-
RANILSON OSCAR ARAUJO PAIVA
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
LEONARDO BRANDAO MARQUES
-
RAFAEL DIAS ARAÚJO
-
Data: 27/03/2024
-
-
Mostrar Resumo
-
Com o avanço do ensino on-line, impulsionado pela necessidade de democratização do acesso à educação e pelas medidas de contenção da COVID-19, o ambiente virtual tornou-se uma parte significativa da vida dos estudantes. Contudo, a evasão escolar persiste, destacando-se a falta de suporte, dúvidas pedagógicas e a sobrecarga de trabalho dos professores como principais desafios. Para enfrentar esse problema, propomos criar e avaliar as percepções dos participantes sobre o quanto os elementos de dashboards são capazes de ativar, orientar, monitorar e responsabilizar o estudante pela sua aprendizagem. Os dashboards propostos informam ao estudante o seu atual (nível que o estudante se encontra no curso), onde deveria estar (nível esperado), tomando como base um objetivo de desempenho escolhido pelo estudante (igualar/superar o desempenho da turma ou igualar/superar o desempenho esperado pelo professor/curso) e por fim, quais as ações que precisam ser desenvolvidas para que o estudante alcance este objetivo. Um total de 22 (vinte e dois) estudantes responderam a um questionário (formulário do Google) constituído de subseções abrangendo as características sociodemográficas e experiências com tecnologias educacionais digitais dos participantes, a contribuição dos elementos dos dashboards para o objetivo de aprendizagem escolhido, a contribuição das características e das funcionalidades dos dashboards, as opiniões quanto a estética, utilidade e facilidade de uso das funcionalidades e as chances e frequência de utilização dos dashboards, caso disponíveis. O questionário apresenta os três modelos de dashboards propostos, proporcionando a utilização da análise da aprendizagem e visualização de dados para promover a autorregulação da aprendizagem dos estudantes on-line. O uso do dashboard será utilizado como estratégias computacionais que ofereçam suporte personalizado aos estudantes. A partir desta estratégia os dados foram coletados através do questionário e analisados, comprovando existir uma influência dos dashboards em autorregular os estudantes para o seu desempenho acadêmico. Dentro do contexto desta pesquisa, os resultados nos permitem afirmar que a integração de um dashboard e a análise de dados, proporcionará um ambiente educacional integrado, dinâmico e adaptável, capacitando os estudantes através de informações visuais claras e personalizadas, a uma consciência metacognitiva, mas também a autorreflexão, permitindo que assumam um papel ativo na autorregulação da sua aprendizagem.
-
Mostrar Abstract
-
With the advancement of online teaching, driven by the need to democratize access to education and COVID-19 containment measures, the virtual environment has become a significant part of students' lives. However, school dropout persists, highlighting the main challenges of lack of support, pedagogical doubts and teachers' overload of work. To address this problem, we propose to create and evaluate participants' perceptions of the extent to which dashboard elements can activate, guide, monitor and hold students accountable for their learning. The proposed dashboards inform the student of their current status (the level at which the student is in the course), where they should be (expected level), based on a performance objective chosen by the student (equal/exceed class performance or equal/exceed the performance expected by the teacher/course) and finally, what actions need to be developed for the student to achieve this objective. A total of 22 (twenty-two) students responded to a questionnaire (Google form) consisting of subsections covering the sociodemographic characteristics and experiences with digital educational technologies of the participants, the contribution of the dashboard elements to the chosen learning objective, the contribution of the characteristics and functionalities of the dashboards, opinions regarding the aesthetics, usefulness and ease of use of the functionalities and the chances and frequency of using the dashboards, if available. The questionnaire presents the three proposed dashboard models, using learning analysis and data visualization to promote online student learning self-regulation. The dashboard will be used as computational strategies that offer personalized support to students. Data was collected and analyzed through the questionnaire using this strategy, proving that dashboards influence self-regulating students' academic performance. Within the context of this research, the results allow us to state that the integration of a dashboard and data analysis will provide an integrated, dynamic and adaptable educational environment, empowering students through clear and personalized visual information, metacognitive awareness, self-reflection, allowing them to take an active role in self-regulating their learning.
|
|
6
|
-
FELIPE SALOMÃO CARDOSO
-
PAGERANK DAS NORMAS BRASILEIRAS NO DIÁRIO OFICIAL DA UNIÃO DE 2002 A 2022
-
Orientador : RANILSON OSCAR ARAUJO PAIVA
-
MEMBROS DA BANCA :
-
RANILSON OSCAR ARAUJO PAIVA
-
ALAN PEDRO DA SILVA
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
DALGOBERTO MIGUILINO PINHO JUNIOR
-
JULIANA ROBERTA THEODORO DE LIMA
-
ANDRÉ CÂMARA ALVES DO NASCIMENTO
-
Data: 03/04/2024
-
-
Mostrar Resumo
-
Introdução: De 1988 até 2023, foram criadas, no Brasil, aproximadamente 7,5 milhões de normas. Desse modo, encontrar as normas mais relevantes relacionadas a um tema, entre diferentes Poderes e entes federados, é um desafio a pesquisadores, operadores do Direito e cidadãos em geral. Por outro lado, o algoritmo do PageRank, que originou o buscador do Google, resolveu problema semelhante para as páginas web. Pois o Google ranqueia as páginas mais relevantes relacionadas a um tema. Desse modo, a presente pesquisa aplicou o PageRank a normas brasileiras. E, com base na Hierarquia das Normas, de Hans Kelsen, o problema desta pesquisa buscou determinar se a Constituição teria o maior PageRank. Objetivos: Como objetivo geral, pretendeu-se proporcionar a programadores e juristas uma base racional para operar o Direito. Para tanto, foram objetivos específicos: definir abstratamente norma e importância da norma; por conseguinte, determinar a norma mais importante do Ordenamento Jurídico Brasileiro; então explorar consequências jurídicas e computacionais. Metodologia: Para alcançar esses objetivos, a base de dados contou com exatos 20 anos de publicações no Diário Oficial da União (DOU), de janeiro de 2002 a dezembro de 2022. A linguagem computacional utilizada foi Python, para coleta, tratamento, estruturação e análise dos dados. E, para operar computacionalmente as normas brasileiras, foi desenvolvida a biblioteca Têmis, também em Python. Resultados: Com a metodologia adotada, verificou-se que, de fato, a Hierarquia das Normas Brasileiras corresponde ao PageRank dos dados analisados. Desse modo, a Constituição obteve o maior PageRank. Discussão: A pesquisa aplicou Álgebra especialmente ao Direito e à Computação. Assim, o estudo mostrou-se relevante a projetos relacionados, como o LexML, do Senado, e a plataforma Normativas, do Ministério da Educação (MEC). Discutiu-se também a possível criação do Google Law. Enfim, ensejou-se demonstrar, por quatro maneiras distintas, que o Direito seria uma Ciência Exata: por dedução, indução, analogia e abdução. Contribuições: Para modelar completamente as normas, foram necessários doze conceitos novos em Álgebra, isto é: nove noções gerais (princípio, finalidade, conjuntura, estrutura, subestrutura, infraestrutura, superestrutura, objeto e principalidade); e três funções (intraobjetiva, extraobjetiva e transobjetiva). Fundada nessas três funções, a biblioteca Têmis, também é contribuição deste trabalho. Os novos conceitos contribuíram também com o próprio entendimento do que seriam as Ciências, e na abdução de que o Direito seria uma Ciência Exata.
-
Mostrar Abstract
-
Introduction: From 1988 to 2023, approximately 7.5 million norms were created in Brazil. Thus, finding the most relevant norms related to a topic among different branches of government and federated entities is a challenge for researchers, legal practitioners, and citizens in general. On the other hand, Google's PageRank algorithm solved a similar problem for web pages by ranking the most relevant pages related to a topic. Therefore, this research applied PageRank to Brazilian norms. Based on Hans Kelsen's Hierarchy of Norms, the research problem sought to determine if the Constitution would have the highest PageRank. Objectives: The general objective was to provide programmers and jurists with a rational basis for legal operations. Specific objectives included defining abstractly the concept of norm and the importance of norms, determining the most important norm in the Brazilian Legal System, and exploring legal and computational consequences. Methodology: To achieve these objectives, the database comprised exact 20 years of publications in the Official Gazette of the Union (DOU), from January 2002 to December 2022. Python was used as the computational language for data collection, processing, structuring, and analysis. The Têmis library, also developed in Python, was used to computationally operate Brazilian norms. Results: With the adopted methodology, it was found that the Hierarchy of Brazilian Norms corresponds to the PageRank of the analyzed data. Thus, the Constitution obtained the highest PageRank. Discussion: The research applied algebra specifically to Law and Computer Science. Therefore, the study proved relevant to related projects such as LexML by the Senate and the Normativas platform by the Ministry of Education (MEC). The possible creation of Google Law was also discussed. Finally, the aim was to demonstrate, through four distinct methods, that Law could be considered an Exact Science: deduction, induction, analogy, and abduction. Contributions: To fully model the norms, twelve new concepts in algebra were required, including nine general notions (principle, purpose, conjuncture, structure, substructure, infrastructure, superstructure, object, and principality) and three functions (intraobjective, extraobjective, and transobjective). Based on these three functions, the Têmis library is also a contribution of this work. The new concepts also contributed to understanding what Sciences are and to the abduction that Law could be an Exact Science.
|
|
7
|
-
DANILO FERNANDES COSTA
-
Uma estratégia Multi-Start Simulated Annealing para o problema da organização de dados em data lake
-
Orientador : ANDRE LUIZ LINS DE AQUINO
-
MEMBROS DA BANCA :
-
IGOR MACHADO COELHO
-
ANDRE LUIZ LINS DE AQUINO
-
FABIANE DA SILVA QUEIROZ
-
FABIO JOSE COUTINHO DA SILVA
-
RIAN GABRIEL SANTOS PINHEIRO
-
Data: 19/04/2024
-
-
Mostrar Resumo
-
Data Lake é a solução para Big Data que mais tem recebido atenção recentemente. Seu principal recurso é lidar com grandes volumes de dados heterogêneos em seu formato bruto. No entanto, isso faz acesso, gerenciamento e exploração de dados mais complexos. Tal desafio define a organização problema organizacional. O problema da organização do Data Lake compreende navegação de dados otimizada geração de estruturas para reduzir o tempo do usuário explorando todos os dados disponíveis. O objetivo é encontrar um organização de dados que maximiza a probabilidade esperada de descoberta de tabelas durante a navegação do usuário. Para este problema, propomos uma metaheurística de recozimento simulada e a comparamos com a Organize a solução da literatura em instâncias de benchmark. Também propomos uma variação mais eficiente que elimina cálculos excessivos. As instâncias são amostras do Socrata Open Data Lake com diversos tópicos e dados abertos de entidades governamentais em todo o mundo. Para validar nossas propostas, realizou análise estatística por meio de teste não paramétrico, que confirmou a dominância de nossa proposta sobre o estado da arte. Nossa melhor proposta foi mais eficiente e aumentou o probabilidade esperada de descoberta de tabela de até 44%. Assim, nossa estratégia pode encontrar melhores soluções nos benchmarks avaliados mesmo sem analisar exaustivamente todos eles e de forma mais eficaz explorando o espaço das soluções
-
Mostrar Abstract
-
Data Lake is the solution for Big Data that has received the most attention recently. Its main feature is handling vast volumes of heterogeneous data in its raw format. However, this makes data access, management, and exploration more complex. Such a challenge defines the organizational problem. The Data Lake Organization Problem comprises optimized data navigation structures generation to reduce the user's time exploring all available data. The goal is to find a data organization that maximizes the expected probability of table discovery during user navigation. For this problem, we propose a simulated annealing metaheuristic and compare it with the Organize literature solution on benchmark instances. We also propose a more efficient variation that prunes excessive computations. The instances are Socrata Open Data Lake samples with varying topics and open data from government entities worldwide. To validate our proposals, we performed statistical analysis using a non-parametric test, which confirmed the dominance of our proposition over the state-of-the-art. Our best proposal was more efficient and increased the expected probability of table discovery up to $44\%$. Thus, our strategy can find better solutions in the benchmarks evaluated even without exhaustively analyzing all of them and more effectively exploring the space of solutions.
|
|
8
|
-
ALLAN AMARO BEZERRA DA SILVA
-
AVALIAÇÃO DO IMPACTO DA MODELAGEM DE RESPOSTA EDFA NA ESTIMATIVA DE QOT DA REDE ÓPTICA
-
Orientador : ERICK DE ANDRADE BARBOZA
-
MEMBROS DA BANCA :
-
ERICK DE ANDRADE BARBOZA
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
CARMELO JOSE ALBANEZ BASTOS FILHO
-
Data: 28/05/2024
-
-
Mostrar Resumo
-
A estimativa da qualidade da transmissão (QoT) em redes ópticas é uma métrica fundamental para o planejamento, o gerenciamento e a otimização de redes. A estimativa da QoT depende de uma boa modelagem dos componentes internos do link óptico para simular com precisão a transmissão e a consequente degradação do sinal. O amplificador é uma fonte de ruído e distorção de sinal; portanto, a modelagem do amplificador desempenha um papel fundamental na estimativa de QoT. Apresentamos uma avaliação do impacto de diferentes modelos de amplificadores na estimativa de QoT em redes ópticas. Baseamos nossa simulação no GNPy, um estimador de QoT amplamente usado para simular e otimizar o projeto de redes ópticas. Nossas principais contribuições são: (1) uma nova versão do GNPY na qual o amplificador pode ser modelado usando uma máscara de potência; (2) um benchmark considerando o modelo avançado de amplificador GNPy e a máscara de potência como estimadores, considerando um simulador numérico e dados de amplificadores do mundo real; e (3) uma análise dos impactos no QoT da rede para cada modelo de amplificador. Os resultados mostram que, considerando um cenário de link único, o erro máximo absoluto do modelo de máscara de potência é de 2,85 dB em relação ao benchmark, enquanto o modelo avançado apresentou um erro máximo de 4,61 dB. No cenário de rede, os resultados mostram que o modelo avançado tende a fornecer estimativas mais otimistas e planas mesmo em casos de alta inclinação, enquanto o modelo de máscara de potência é mais sensível ao ruído de transmissão nesses casos, estimando GSNR e taxas de transmissão mais baixas, incluindo vários casos de bloqueio de conexão. As descobertas deste estudo podem ser úteis para pesquisadores e operadores de redes ópticas que desejam ter gerenciamento e otimização de redes mais flexíveis por meio de simulações e redes controladas por software.
-
Mostrar Abstract
-
Estimating the quality of transmission (QoT) in optical networks is a key metric for planning, managing, and optimizing networks. QoT estimation depends on good modeling of the internal components of the optical link to accurately simulate transmission and consequent signal degradation. The amplifier is a source of noise and signal distortion; therefore, amplifier modeling plays a crucial role in QoT estimation. We present an evaluation of the impact of different amplifier models on the estimation of QoT in optical networks. We based our simulation on GNPy, a QoT estimator widely used to simulate and optimize the design of optical networks. Our main contributions are: (1) a new version of the GNPY in which the amplifier can be modeled using a power mask; (2) a benchmark considering the advanced GNPy amplifier model and power mask as estimators considering a numeric simulator and real-world amplifier data; and (3) an analysis of the impacts in the network QoT for each amplifier model. The results show that, considering a single link scenario, the absolute maximum error of the Power Mask Model is 2.85 dB in relation to the benchmark, whereas the Advanced Model presented a maximum error of 4.61 dB. In the network scenario, result show that the Advanced Model tends to deliver more optimistic and flat estimates even in cases of high tilt, whereas the Power Mask Model is more sensitive to transmission noise in these cases, estimating lower GSNR and transmission rates, including several cases of connection blocking. The findings of this study may be useful to optical network researchers and operators who want to have more flexible network management and optimization through simulations and software-controlled networks.
|
|
9
|
-
JOSÉ CARLOS PINHEIRO FILHO
-
Controle adaptativo do ponto de operação dos amplificadores ópticos utilizando aprendizagem por reforço
-
Orientador : ERICK DE ANDRADE BARBOZA
-
MEMBROS DA BANCA :
-
ERICK DE ANDRADE BARBOZA
-
BALDOINO FONSECA DOS SANTOS NETO
-
JOAQUIM FERREIRA MARTINS FILHO
-
Data: 28/06/2024
-
-
Mostrar Resumo
-
A natureza dinâmica das futuras redes ópticas exige que os amplificadores ajustem de forma autônoma seu ganho em resposta às mudanças nas condições da rede, como a adição ou remoção de canais, para manter a potência do sinal e a relação sinal-ruído geral (GSNR) em uma cascata de amplificadores. Esse desafio é conhecido como Controle Adaptativo do Ponto de Operação do Amplificador Óptico (ACOP). Foram propostas soluções para o problema do ACOP usando técnicas como aprendizado cognitivo, aprendizado supervisionado e algoritmos evolutivos. Entre elas, a abordagem evolutiva obteve os melhores resultados em termos de qualidade de transmissão. Entretanto, ela tem um tempo de resposta relativamente alto, o que é uma desvantagem significativa para a implantação operacional. Por outro lado, as técnicas de aprendizado por reforço são importantes no campo da inteligência artificial para resolver problemas em tempo real com modelos treinados. Este trabalho propõe a primeira modelagem do problema ACOP usando o aprendizado por reforço, empregando especificamente o algoritmo PPO (Proximal Policy Optimization) integrado ao simulador GNPy. O objetivo é melhorar a qualidade do sinal, maximizando o GSNR por meio da interação com os ganhos dos amplificadores no link. Em quatro cenários com números variados de canais, essa abordagem obteve resultados próximos aos da abordagem evolutiva, mas com um aumento de velocidade de 300 vezes.
-
Mostrar Abstract
-
The dynamic nature of future optical networks requires that amplifiers autonomously adjust their gain in response to changing network conditions, such as the addition or removal of channels, to maintain signal power and General Signal-to-Noise Ratio (GSNR) across a cascade of amplifiers. This challenge is known as the Adaptive Control of Optical Amplifier Operating Point (ACOP). Solutions for the ACOP problem have been proposed using techniques such as cognitive learning, supervised learning, and evolutionary algorithms. Among these, the evolutionary approach has achieved the best results in terms of transmission quality. However, it has a relatively high response time, which is a significant drawback for operational deployment. On the other hand, reinforcement learning techniques are important in the field of artificial intelligence to solve problems in real-time with trained models. This work proposes the first modeling of the ACOP problem using reinforcement learning, specifically employing the Proximal Policy Optimization (PPO) algorithm integrated with the GNPy simulator. The objective is to improve signal quality by maximizing the GSNR through interaction with the gains of the amplifiers in the link. In four scenarios with varying numbers of channels, this approach achieved results close to the evolutionary approach, but with a speed-up of 300 times.
|
|
10
|
-
EDVONALDO HORÁCIO DOS SANTOS
-
APRENDIZAGEM DE MÁQUINA PARA CORREÇÃO DO ESPECTRO DE EMISSÃO DE NANOPARTÍCULAS USADAS PARA NANOTERMOMETRIA EM APLICAÇÕES BIOLÓGICAS
-
Orientador : BRUNO ALMEIDA PIMENTEL
-
MEMBROS DA BANCA :
-
BRUNO ALMEIDA PIMENTEL
-
ERVING CLAYTON XIMENDES
-
EVANDRO DE BARROS COSTA
-
RAFAEL DE AMORIM SILVA
-
WAGNER FERREIRA DA SILVA
-
Data: 25/07/2024
-
-
Mostrar Resumo
-
No campo da nanotermometria o uso das emissões de nanopartículas (NPs) têm se mostrado uma importante ferramenta em diversas áreas, em particular, para o diagnóstico precoce de câncer e de inflamações localizadas. Isso porque as regiões com essas características apresentam temperaturas distintas de um tecido normal. Embora o uso das emissões de NPs para atuarem como nanotermômetros seja uma área bastante promissora, há diversos obstáculos a serem superados. Este trabalhou usou Aprendizagem de Máquina para correção espectral em dados de tecidos usando o coeficiente de absorção $\mu$a (massa cinzenta do cérebro, mama pré-menopausa, fígado, pele, pele variando a concentração de água e água), e o coeficiente de espalhamnento ($\mu$s) na massa cinzenta do cérebro, mama pré-menopausa, fígado e pele. Os algoritmos que tiveram melhores resultados na correção espectral foram a Árvore de Decisão, Floresta Aleatória e o k Vizinho Mais Próximo. Eles obtiveram, em média, valores de MAE, MSE, MAPE, R² e $\sigma$ dentre os melhores possíveis. A Árvore de Decisão foi o que mais se destacou em razão de seu baixo custo de tempo, bem como na sustentação da hipótese, usando o teste de Wilcoxon, de que sua capacidade preditiva para este cenário alcançou excelentes resultados. Cada uma das correções espectrais também foi usada para extração da temperatura. Os modelos que mais se destacaram foram a Árvore de Decisão, a Floresta Aleatória e o k Vizinho Mais Próximo. O gráfico de violino de temperatura de cada um desses preditores mostrou uma alta exatidão e precisão, acertando a temperatura com uma casa decimal.
-
Mostrar Abstract
-
In the field of nanothermometry, the use of nanoparticle emissions (NPs) has proven to be an important tool in several areas, in particular, for the early diagnosis of cancer and localized inflammation. This is because regions with these characteristics have different temperatures than normal tissue. Although the use of NP emissions to act as nanothermometers is a very promising area, there are several obstacles to be overcome. This work used Machine Learning for spectral correction on tissue data using the absorption coefficient $\mu$a (brain gray matter, breast pre menopausal, liver, skin, skin varying water and water concentration), and the scattering coefficient ($\mu$s) in the gray matter of the brain, breast pre menopausa, liver and skin. The algorithms that had the best results in spectral correction were the Decision Tree, Random Forest and k Nearest Neighbor. They obtained, on average, values of \textit{MAE}, \textit{MSE}, \textit{MAPE}, R² and $\sigma$ among the best possible. The Decision Tree was what stood out the most due to its low time cost, as well as supporting the hypothesis, using the Wilcoxon test, that its predictive capacity for this scenario achieved excellent results. Each of the spectral corrections was also used for temperature extraction. The models that stood out the most were the Decision Tree, the Random Forest and the k Nearest Neighbor. The temperature violin plot for each of these predictors showed high accuracy and precision, nailing the temperature to one decimal place.
|
|
11
|
-
EMANUEL ADLER MEDEIROS PEREIRA
-
CLASSIFICAÇÃO DA POTABILIDADE DA ÁGUA: UMA ABORDAGEM UTILIZANDO APRENDIZAGEM DE MÁQUINA EM SISTEMA EMBARCADO
-
Orientador : ERICK DE ANDRADE BARBOZA
-
MEMBROS DA BANCA :
-
ALLAN DE MEDEIROS MARTINS
-
ERICK DE ANDRADE BARBOZA
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
Data: 26/07/2024
-
-
Mostrar Resumo
-
O acesso à água potável é um recurso vital e um direito humano reconhecido. Contudo, ainda hoje, bilhões de pessoas sofrem com a falta de acesso à água adequada para consumo, o que pode levar a diversos problemas de saúde. Um dos principais desafios no monitoramento da qualidade da água é a coleta e análise de grandes volumes de dados. Modelos de Aprendizado de Máquina têm sido amplamente aplicados no monitoramento da qualidade da água para facilitar a tomada de decisão por gestores e prevenir a contaminação. Um sistema embarcado que integre sensores a um modelo de Aprendizado de Máquina poderia oferecer respostas em tempo real e seria viável para ser aplicado em qualquer local, independentemente da conexão com a internet. Esse sistema, no contexto da classificação da potabilidade da água, permitiria respostas mais rápidas diante de potenciais ameaças. Este estudo propõe um modelo de TinyML eficiente em termos energéticos para a classificação da potabilidade da água, utilizando apenas parâmetros que podem ser obtidos por meio de sensoriamento eletrônico. O estudo avaliou o desempenho utilizando métricas como Acurácia, Precisão, Recall, F1-Score, espaço ocupado em memória pelo modelo, tempo de execução e consumo de energia, e comparou modelos desenvolvidos com os algoritmos Random Forest e Redes Neurais. Também foi analisada a melhor combinação entre modelo e biblioteca de adaptação para o sistema embarcado. O modelo de Aprendizado de Máquina inicial, utilizando Random Forest, demonstrou um desempenho notável, alcançando uma Precisão de 0.70 e, comparado à sua contraparte operando em um ambiente de nuvem, pode funcionar por anos com uma bateria comum como fonte de energia. Comparando todos os modelos e bibliotecas do estudo, o modelo de perceptron multicamadas com a biblioteca EmbML usou a menor memória, com 283.113 bytes, e o modelo Random Forest com Micromlgen teve o menor consumo de energia, usando apenas 104.534 milijoules. Este trabalho pode ajudar pesquisadores e profissionais a implementar sistemas de classificação de potabilidade da água e a usar TinyML em outros problemas de classificação também.
-
Mostrar Abstract
-
Access to clean drinking water is a vital resource and a recognized human right. However, billions of people still suffer from a lack of access to safe drinking water, leading to various health issues. One major challenge in water quality monitoring is the collection and analysis of large amounts of data. Machine Learning models have been widely applied in water quality monitoring to aid decision-making by managers and prevent contamination. An embedded system that integrates sensors with a Machine Learning model could provide real-time responses and be feasible for deployment anywhere, regardless of internet connectivity requirements. Such a system, in the context of water potability classification, would allow for quicker responses to potential threats. This study proposes an energy-efficient TinyML model for classifying water potability, utilizing only parameters obtainable through electronic sensing. The study evaluated performance using metrics such as Accuracy, Precision, Recall, F1-Score, memory occupied by the model, execution time, and energy consumption, comparing models developed with Random Forest and Neural Networks algorithms. It also assessed the best combination of model and adaptation library for the embedded system. The initial Machine Learning model, using Random Forest, demonstrated excellent performance, reaching a Precision of 0.70, and compared to its cloud-based counterpart, it can operate for years on a standard battery power source. Comparing all models and libraries in the study, the multilayer perceptron model with the EmbML library used the least memory, with 283,113 bytes, and the Random Forest model with Micromlgen had the lowest energy consumption, using only 104.534 millijoules. This work can help researchers and professionals implement water potability classification systems and use TinyML in other classification problems as well.
|
|
12
|
-
DÉBORA BARBOSA LEITE SILVA
-
Uma Nova Metodologia Baseada em Grafos de Ruas Para Investigar a Relação entre Crimes e Pontos de Interesse Usando Dados Georreferenciados: Um Estudo de Caso em Maceió, AL
-
Orientador : THALES MIRANDA DE ALMEIDA VIEIRA
-
MEMBROS DA BANCA :
-
AFONSO PAIVA NETO
-
EVANDRO DE BARROS COSTA
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
Data: 23/08/2024
-
-
Mostrar Resumo
-
Assim como as cidades, os crimes também evoluíram com o tempo: estão exponencialmente mais intensos, mais violentos e mais modernos, levando à exaustão dos modelos de segurança. Consequentemente, a sociedade, e principalmente os gestores, necessitam de ferramentas sofisticadas para ajudá-los na tomada de decisão. A crescente digitalização de dados da última década tem possibilitado a coleta de dados urbanos em larga escala e com muita agilidade. Isso abre oportunidades de se desenvolverem novas técnicas e ferramentas para análise de dados urbanos massivos, inclusive no escopo da criminalidade urbana. Porém, a análise de dados urbanos georreferenciados em larga escala requer o uso de discretizações espaciais adequadas e o emprego de algoritmos de Aprendizado de Máquina robustos capazes de identificar padrões urbanos complexos. Neste trabalho, apresentamos uma metodologia computacional baseada em grafos de rua para realizar a análise de dados urbanos massivos georreferenciados com o objetivo de investigar a relação entre a ocorrência de crimes e a proximidade de pontos de interesse da cidade (POIs). Em particular, também propomos realizar análises segmentadas de acordo com padrões socioeconômicos das diferentes regiões da cidade, através do uso de algoritmos de agrupamento. Por meio de um estudo de caso realizado na cidade de Maceió, concluímos que que existe, globalmente, correlação entre pontos de interesse e eventos criminais. Além disso, esta correlação é significativamente alterada quando analisados grupos de esquinas segmentadas de acordo com os diferentes padrões socioeconômicos.
-
Mostrar Abstract
-
Just like cities, crimes have also evolved over time: they have become exponentially more intense, more violent, and more modern, leading to the exhaustion of traditional security models. Consequently, society, and especially policymakers, need sophisticated tools to assist them in decision-making. The growing digitization of data over the past decade has enabled the large-scale and rapid collection of urban data. This opens up opportunities for the development of new techniques and tools for analyzing massive urban data, including in the context of urban crime. However, the analysis of large-scale georeferenced urban data requires the use of appropriate spatial discretizations and the application of robust machine learning algorithms capable of identifying complex urban patterns. In this work, we present a computational methodology based on street graphs to analyze massive georeferenced urban data with the goal of investigating the relationship between crime occurrences and the proximity of points of interest (POIs) in the city. In particular, we also propose segmented analyses according to the socioeconomic patterns of different regions of the city, using clustering algorithms. Through a case study conducted in the city of Maceió, we conclude that there is, globally, a correlation between points of interest and criminal events. Furthermore, this correlation is significantly altered when analyzing groups of street corners segmented according to different socioeconomic patterns.
|
|
13
|
-
JOÃO VICTOR RIBEIRO FERRO
-
Uma Avaliação Sistemática de Técnicas de Aprendizado de Máquina Baseadas em Ensemble para Previsão de índices do Mercado de Ações Usando Séries Temporais Financeiras
-
Orientador : EVANDRO DE BARROS COSTA
-
MEMBROS DA BANCA :
-
BRUNO ALMEIDA PIMENTEL
-
EVANDRO DE BARROS COSTA
-
GEORGE DARMITON DA CUNHA CAVALCANTI
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
Data: 10/09/2024
-
-
Mostrar Resumo
-
A previsão de índices de séries temporais nos mercados de ações desperta crescente interesse,
proporcionando aos investidores visões valiosas sobre as tendências econômicas futuras de
um país a curto, médio e longo prazo. Esse tipo de predição tem sido realizado por meio de
modelos de aprendizado de máquina. Mas, particularmente, devido a volatilidade, o ruído e a
estocasticidade dos dados, tal investimento em predição tem sido mitigado satisfatoriamente
com o desenvolvimento de modelos ensemble. Esta variedade de modelos exige uma análise
comparativa sistemática para entender seus pontos fortes e limitações. Dessa forma, foi realizada
uma revisão sistemática da literatura voltada para a predição de índices da bolsa de
valores que utilizam séries temporais financeiras e abordagens de ensemble, com o objetivo
de mapear os principais artigos, autores, tipos de técnicas utilizadas e lacunas na literatura.
A literatura revela que muitas análises comparativas se restringem ao uso de métricas de desempenho
tradicionais, como MSE, RMSE, MAE e MAPE, o que pode introduzir vieses nas
comparações, além de frequentemente omitir testes estatísticos robustos, focar apenas em um
tipo de mercado e adotar um protocolo de comparação inadequado. Este estudo investiga como
diferentes técnicas de ensemble aprimoram a previsão em séries temporais financeiras, adotando
um protocolo meticuloso para eliminar vieses dos dados e padronizar comparações entre
metodologias. Além das métricas tradicionais, foi introduzida uma análise de custo-benefício
para uma avaliação mais abrangente da arquitetura de ensemble. O teste de hipótese de Wilcoxon
foi aplicado para validar as descobertas, juntamente com os testes de Friedman e Nemenyi,
que são utilizados para classificar todos os modelos. Os resultados apresentaram a importância
de executar os algoritmos em diferentes ambientes, como os selecionados IBOVESPA e S&P
500, além de indicar que os algoritmos de ensemble, especialmente as abordagens de Decomposição
e Sistemas Híbridos Residuais que utilizam o modelo CART como base, tem um bom
desempenho dependendo do tipo de ambiente adotado. Contudo, testes estatísticos nas métricas
tradicionais mostram desempenhos equivalentes ao modelo single CART, e na métrica
de custo-benefício estes modelos apresentam um rendimento ruim, mostrando assim que nem
sempre o aumento na complexidade dos modelos resulta em benefícios significativos.
-
Mostrar Abstract
-
The prediction of time series indices in stock markets is garnering increasing interest, providing investors with valuable insights into a country’s future economic trends in the short, medium, and long term. This type of prediction has been carried out through machine learning models. However, particularly due to the data’s volatility, noise, and stochastic nature, such investment in prediction has been satisfactorily mitigated with the development of ensemble models. This variety of models necessitates a systematic comparative analysis to understand their strengths and limitations. Therefore, a systematic literature review was conducted focusing on predicting stock market indices using financial time series and ensemble approaches, to map the main articles, authors, types of techniques used, and gaps in the literature. The literature reveals that many comparative analyses are restricted to the use of traditional performance metrics, such as MSE, RMSE, MAE, and MAPE, which can introduce biases in comparisons, and often omit robust statistical tests, focus solely on one type of market, and adopt an inadequate comparison protocol. This study investigates how different ensemble techniques enhance prediction in financial time series, adopting a meticulous protocol to eliminate data biases and standardize comparisons between methodologies. In addition to traditional metrics, a cost-benefit analysis was introduced for a more comprehensive evaluation of the ensemble architecture. The Wilcoxon hypothesis test was applied to validate the findings, along with the Friedman and Nemenyi tests, which are used to rank all models. The results highlighted the importance of executing algorithms in different environments, such as the selected IBOVESPA and S&P 500, and indicated that ensemble algorithms, especially Decomposition and Residual Hybrid Systems approaches using the CART model as a base, perform well depending on the type of environment adopted. However, statistical tests on traditional metrics show performances equivalent to the single CART model, and in the cost-benefit metric, these models present poor performance, thus showing that increasing the complexity of models does not always result in significant benefits.
|
|
14
|
-
FELIPE TIAGO LIMA DE OLIVEIRA
-
Prevenção de acidentes em zonas rurais utilizando redes 5G e computação de borda
-
Orientador : LEANDRO DIAS DA SILVA
-
MEMBROS DA BANCA :
-
LEANDRO DIAS DA SILVA
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
BALDOINO FONSECA DOS SANTOS NETO
-
ABEL CAVALCANTE LIMA FILHO
-
IVO AUGUSTO ANDRADE ROCHA CALADO
-
Data: 13/09/2024
-
-
Mostrar Resumo
-
O presente trabalho, apresentará uma proposta que visa prevenir acidentes, principalmente em estradas e rodovias que não são duplicadas, a partir de um sistema de envio de mensagens de alerta, utilizando a rede 5G e a computação de borda. A escolha dessas duas tecnologias como base para este trabalho, se deu por conta da observação de problemas comuns existentes em áreas rurais e remotas como, alta latência, baixa vazão, conectividade limitada e até ausência de conexão à internet. A pesquisa realizada, indicou que a utilização da rede 5G associada à computação de borda, se mostrou bastante eficaz para dirimir ou pelo menos atenuar os problemas citados anteriormente. No trabalho, os caminhões serão citados com mais veemência, dado os fatores de risco que os mesmos propiciam, mas o objetivo será a prevenção de acidentes de uma forma geral nas zonas rurais, e aqui é importante salientar que de acordo com o CTB (Código de Trânsito Brasileiro) as rodovias são vias rurais pavimentadas, então nesse sentido, toda rodovia é considerada uma zona rural. Dentro desse contexto, será observada a grande importância da utilização da rede 5G para o envio dos alertas entre os veículos, considerando sua capacidade de conectar 1 milhão de dispositivos por quilômetro quadrado, inclusive em altíssima velocidade (aproximadamente 500 km/h), e com a latência minúscula de 1ms. Com isso, será possível atender a necessidade de urgência para a chegada das mensagens enviadas de um veículo a outro, que se dará praticamente em tempo real, e assim, viabilizará uma ação a tempo, por parte dos condutores. Por último, será proposto um sistema que objetiva o envio e recebimento de dados entre os veículos (V2V), entre veículos e RSUs (unidades de beira de estrada) (V2I), entre RSUs e veículos (I2V), além do envio para a nuvem e uma unidade de monitoramento. Para validar o trabalho, será utilizado um simulador de código aberto chamado Carla, que possibilita a conf iguração de sensores internos dos veículos, tendo em vista que os dados para envio deverão ser extraídos através de seus sensores internos, além disso, o simulador propicia o controle do ambiente, simulação de diversas situações de tráfego, dentre outros.
-
Mostrar Abstract
-
O presente trabalho, apresentará uma proposta que visa prevenir acidentes, principalmente em estradas e rodovias que não são duplicadas, a partir de um sistema de envio de mensagens de alerta, utilizando a rede 5G e a computação de borda. A escolha dessas duas tecnologias como base para este trabalho, se deu por conta da observação de problemas comuns existentes em áreas rurais e remotas como, alta latência, baixa vazão, conectividade limitada e até ausência de conexão à internet. A pesquisa realizada, indicou que a utilização da rede 5G associada à computação de borda, se mostrou bastante eficaz para dirimir ou pelo menos atenuar os problemas citados anteriormente. No trabalho, os caminhões serão citados com mais veemência, dado os fatores de risco que os mesmos propiciam, mas o objetivo será a prevenção de acidentes de uma forma geral nas zonas rurais, e aqui é importante salientar que de acordo com o CTB (Código de Trânsito Brasileiro) as rodovias são vias rurais pavimentadas, então nesse sentido, toda rodovia é considerada uma zona rural. Dentro desse contexto, será observada a grande importância da utilização da rede 5G para o envio dos alertas entre os veículos, considerando sua capacidade de conectar 1 milhão de dispositivos por quilômetro quadrado, inclusive em altíssima velocidade (aproximadamente 500 km/h), e com a latência minúscula de 1ms. Com isso, será possível atender a necessidade de urgência para a chegada das mensagens enviadas de um veículo a outro, que se dará praticamente em tempo real, e assim, viabilizará uma ação a tempo, por parte dos condutores. Por último, será proposto um sistema que objetiva o envio e recebimento de dados entre os veículos (V2V), entre veículos e RSUs (unidades de beira de estrada) (V2I), entre RSUs e veículos (I2V), além do envio para a nuvem e uma unidade de monitoramento. Para validar o trabalho, será utilizado um simulador de código aberto chamado Carla, que possibilita a conf iguração de sensores internos dos veículos, tendo em vista que os dados para envio deverão ser extraídos através de seus sensores internos, além disso, o simulador propicia o controle do ambiente, simulação de diversas situações de tráfego, dentre outros.
|
|
15
|
-
MARIA JULIA DE OLIVEIRA VIEIRA
-
ON-DEVICE MACHINE LEARNING FOR FORECASTING REFERENCE EVAPOTRANSPIRATION
-
Orientador : ERICK DE ANDRADE BARBOZA
-
MEMBROS DA BANCA :
-
ERICK DE ANDRADE BARBOZA
-
TIAGO FIGUEIREDO VIEIRA
-
FERNANDO FRANÇA DA CUNHA
-
Data: 29/10/2024
-
-
Mostrar Resumo
-
A situação climática no cenário mundial atual demanda pela utilização de recursos naturais de maneira equilibrada, principalmente a água, recurso indispensável em todos os aspectos da vida humana. A predição de Evapotranspiração de Referência (ETo) tem um grande potencial de auxiliar no manejo de recursos hídricos, sendo um parâmetro determinante na avaliação antecipada da demanda de água, assistindo na tomada de decisões e auxiliando no planejamento de irrigação de grandes plantações. O método Penman-Monteith (FAO56) é o padrão para estimar ETo, e é usado como método de referência para fins de comparação em vários estudos. Este método requer vários elementos meteorológicos, mas o número de estações meteorológicas não é implementado de maneira suficiente para inferir seus valores em países em desenvolvimento. A literatura mostra que modelos de Aprendizagem de Máquina (AM) vem sendo amplamente aplicados na predição de ETo e tem apresentando resultados promissores, até mesmo com a utilização de parâmetros reduzidos é possível predizer os valores de ETo. Na literatura foram apresentados trabalhos que desenvolveram sistemas de irrigação automatizados que se conectam com serviços web para realizar predição dos parâmetros necessários para tomar decisão de irrigação. Contudo, um sistema baseado em nuvem depende de uma infraestrutura de conexão com a internet, tal infraestrutura nem sempre está disponível nas áreas rurais de países em desenvolvimento. Além disso, um dispositivo que dependa da conexão com a internet geralmente consome mais energia. Diante disso, o objetivo desse estudo é testar abordagens em que seja possível obter informações de ETo nos próprios nós do sistema, ou seja, embarcar os modelos de AM que estimam ETo. Será avaliado o desempenho e a viabilidade das soluções embarcadas frente aos outros modelos descritos pela literatura e que utilizam computação em nuvem. de modo a avaliar seu desempenho e viabilidade comparando com outros modelos descritos pela literatura utilizando Computação em Nuvem. Os modelos construídos serão validados com base nas métricas de latência, tamanho ocupado em memória e consumo de energia.
-
Mostrar Abstract
-
The current climate-world scenario demands the use of natural resources in a balanced way, especially water. The prediction of reference evapotranspiration (ETo) can assist in the management of water resources, being a determining parameter in the early assessment of water demand. The literature shows that Machine Learning (ML) models have been widely applied in the prediction of ETo and have shown promising results, even with the use of reduced parameters. Previous works also presented automated irrigation systems that connect to Web services to predict the parameters needed to make irrigation decisions. However, a cloud-based system depends on an internet connection infrastructure; such infrastructure is not always available in rural areas, especially in developing countries. In addition, a device that relies on an internet connection will generally consume more power. Therefore, the main objective of this study is to create an energy-efficient ML model to predict ETo using minimal meteorological data that can be used in an embedded system. We evaluated three models considering temperature, humidity, and wind speed as inputs. The models were embedded in an ESP32 microcontroller and compared to its cloud versions. The results show that the model that estimates ETo considering only temperature and humidity is the best option considering the trade-off between cost and precision. Compared to its cloud-based version, this embedded model consumes 37.97% less memory space, uses approximately 99.98% less energy and runs 99.97% faster.
|
|
16
|
-
JOSE RUBENS DA SILVA BRITO
-
Uma Abordagem de Aprendizado de Máquina para Identificação de Tendências de Sucesso de Jogadores de
Basquete Universitário Americano para a Liga Profissional: Conciliando Predição e Explicabilidade
-
Orientador : EVANDRO DE BARROS COSTA
-
MEMBROS DA BANCA :
-
EVANDRO DE BARROS COSTA
-
BRUNO ALMEIDA PIMENTEL
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
JOSEANA MACEDO FECHINE
-
JOSÉ ANTÃO BELTRÃO MOURA
-
Data: 29/10/2024
-
-
Mostrar Resumo
-
Este estudo propõe explorar técnicas de aprendizado de máquina em dados históricos do basquete universitário americano (NCAA), com o objetivo de prever a tendência dos jogadores universitários de chegarem à liga profissional de basquete (NBA). No entanto, esses conjuntos de dados podem conter características redundantes, ruidosas e irrelevantes, que podem influenciar negativamente a atividade preditiva. Para mitigar esse problema e buscar uma solução que concilie predição e explicabilidade dos modelos preditivos, propõs-se, neste trabalho, uma abordagem composta por três etapas principais: (I) seleção dos atributos mais relevantes para auxiliar na tomada de decisão; (II) implementa..o de algoritmos de aprendizado de m.quina; (III) análise dos resultados preditivos por meio da explicabilidade de cada modelo. Na etapa (I), foi feita a seleção de dados que, quando combinados, formam um conjunto de atributos do jogador, influenciando direta ou indiretamente sua contratação por equipes daNBA, considerando a configuração atual do time. Utilizaram-se técnicas consolidadas na literatura, como Wrapper, Filter, Embedding, além do Algoritmo Genético, com o objetivo de melhorar a precis.o preditiva e reduzir o número de caracter.sticas. Na etapa (II), buscou-se equilibrar interpretabilidade e precis.o preditiva, empregando métodos de classificação caixa branca, como árvores de Decisão, Regressão Logística e o Algoritmo de Regras (PRISM). Como referência de modelo de caixa preta, utilizou-se a Máquina de Vetores de Suporte – SVM. Já na etapa (III), analisou-se a explicabilidade de cada modelo. Isso foi feito de duas maneiras: pela própria construção dos algoritmos, como os de indução via árvores de Decisão e via regras, e por meio da ferramenta de explicabilidade SHAP. Para a validação da abordagem, utilizou-se a base de dados mencionada, e os resultados indicaram um impacto positivo da seleção de atributos nos modelos preditivos, com destaque para a influência ben.fica do Algoritmo Genético na etapa de seleção. Essa abordagem contribuiu para a identificação de um conjunto mínimo de atributos e para a melhoria das métricas de predição dos classificadores. Especificamente, a combinação do Algoritmo Genético com SVM na função de aptidão, na etapa de seleção gerou um conjunto de atributos que, ao ser utilizado na árvore de Decisão (CART), alcançou uma acurácia de 80%. Por fim, foi realizada uma análise da interpretabilidade dos modelos árvore de Decisão CART e PRISM, destacando a clareza fornecida por cada um: o primeiro baseado em estrutura de árvore de Decisão e o segundo em algoritmo de regras. Adicionalmente, utilizamos a ferramenta SHAP para analisar as saídas geradas pelos algoritmos de aprendizado de máquina, permitindo uma interpretação mais clara dos resultados, para assim, auxiliar na tomada de decisão. Espere-se com esses resultados poder contribuir para a aplicação eficiente de técnicas de aprendizado de máquina no basquete, sobretudo na predição de comportamentos futuros de jogadores com base em variáveis explicáveis e selecionadas de forma criteriosa.
-
Mostrar Abstract
-
This study aims to explore machine learning techniques on historical data from American college
basketball (NCAA), with the goal of predicting the tendency of college players to reach the
professional basketball league (NBA). However, these datasets may contain redundant, noisy,
and irrelevant features that can negatively influence predictive performance. To mitigate this
issue and seek a solution that balances prediction and explainability of predictive models, this
work proposes an approach composed of three main steps: (I) selection of the most relevant
attributes to aid in decision-making; (II) implementation of machine learning algorithms; (III)
analysis of predictive results through the explainability of each model. In step (I), data selection
was performed to create a set of player attributes that directly or indirectly influence their
hiring by NBA teams, considering the current team configuration. Established techniques from
the literature were employed, such as Wrapper, Filter, Embedding, and Genetic Algorithm, to
improve predictive accuracy and reduce the number of features. In step (II), a balance between
interpretability and predictive accuracy was sought by employing white-box classification
methods, such as Decision Trees, Logistic Regression, and the Rule-Based Algorithm
(PRISM). The Support Vector Machine (SVM) served as a reference black-box model. In step
(III), the explainability of each model was analyzed. This was done in two ways: through the
construction of the algorithms, such as those based on Decision Trees and rules, and through
the SHAP explainability tool. To validate the approach, the mentioned database was used, and
the results indicated a positive impact of attribute selection on predictive models, highlighting
the beneficial influence of the Genetic Algorithm during the selection phase. This approach
contributed to identifying a minimal set of attributes and improving the prediction metrics of
the classifiers. Specifically, the combination of the Genetic Algorithm with SVM in the fitness
function during selection generated a set of attributes that, when used in the Decision Tree
(CART), achieved an accuracy of 80%. Finally, an analysis of the interpretability of the Decision
Tree CART and PRISM models was conducted, emphasizing the clarity provided by each:
the former based on Decision Tree structure and the latter on rule algorithms. Additionally,
the SHAP tool was used to analyze the outputs generated by the machine learning algorithms,
allowing for a clearer interpretation of the results to assist in decision-making. These results
are expected to contribute to the efficient application of machine learning techniques in basketball,
particularly in predicting the future behavior of players based on explainable variables
selected with careful criteria.
|
|
17
|
-
FELIPE MOURA DE JESUS
-
Design Thinking no Desenvolvimento de Software: Padrões de Evidências na Indústria e na Literatura
-
Orientador : RODRIGO GUSMÃO DE CARVALHO ROCHA
-
MEMBROS DA BANCA :
-
RODRIGO GUSMÃO DE CARVALHO ROCHA
-
RIAN GABRIEL SANTOS PINHEIRO
-
IGOR MEDEIROS VANDERLEI
-
Data: 31/10/2024
-
-
Mostrar Resumo
-
Em um cenário cada vez mais globalizado e motivado pela tecnologia, a indústria de software busca atuar com máxima eficiência na criação produtos inovadores alinhados com as expectativas dos usuários. Neste contexto, o Design Thinking (DT) tornou-se uma ferramenta fundamental para promover a inovação e melhoria da qualidade de software, pois foca na experiência do usuário com abordagens que proporcionam multidisciplinaridade, prototipação e colaboração ativa das partes interessadas.
Neste sentido, vários autores investigam como o DT é utilizado em cenários reais de desenvolvimento de software e quais são as partes essenciais neste contexto. O objetivo desta pesquisa é apresentar um conjunto de padrões de evidências sobre DT no contexto de desenvolvimento de software, considerando as perspectivas da industria e da literatura. Identificando e mapeando os principais elementos empíricos constatados na adoção do Design Thinking na produção de sistemas computacionais.
A metodologia utilizada neste trabalho se fundamentou em dois estudos experimentais fundamentos em questões de pesquisa, o mapeamento sistemático, que explorou a literatura sob as diretrizes de Kitchenham, utilizando três bases científicas, IEEE, ACM e SCOPUS, e, após verificação e análise dos resultados, foram identificados 86 estudos primários. Em seguida, foi aplicada uma pesquisa com 105 profissionais de tecnologia de diferentes organizações, buscando coletar de profissionais da área dados relevantes sobre o contexto de Design Thinking.
Esses resultados podem ajudar profissionais e pesquisadores da área a entender melhor os desafios e implementar soluções mais eficazes para melhorar suas tarefas no desenvolvimento de software usando abordagens de design thinking. Dessa forma, este trabalho contribui com recursos importantes para o ecossistema de construção de software, permitindo o compartilhamento de conhecimento sobre os principais elementos de DT no desenvolvimento de software.
-
Mostrar Abstract
-
In an increasingly globalized and technology-driven scenario, the software industry seeks to act with maximum efficiency in creating innovative products aligned with user expectations. In this context, Design Thinking (DT) has become a fundamental tool for promoting innovation and improving software quality, as it focuses on the user experience with approaches that provide multidisciplinarity, prototyping, and active collaboration of stakeholders. In this sense, several authors investigate how DT is used in real software development scenarios and what are the essential parts in this context. The objective of this research is to present a set of evidence standards on DT in the context of software development, considering the perspectives of the industry and the literature. Identifying and mapping the main empirical elements found in the adoption of Design Thinking in the production of computer systems. The methodology used in this work was based on two experimental studies based on research questions, systematic mapping, which explored the literature under Kitchenham's guidelines, using three scientific databases, IEEE, ACM and SCOPUS, and, after verification and analysis of the results, 86 primary studies were identified. Then, a survey was applied to 105 technology professionals from different organizations, seeking to collect relevant data from professionals in the area about the context of Design Thinking.
These results can help professionals and researchers in the area to better understand the challenges and implement more effective solutions to improve their tasks in software development using design thinking approaches. In this way, this work contributes important resources to the software construction ecosystem, allowing the sharing of knowledge about the main elements of DT in software development.
|
|
18
|
-
JOSE VITOR DE ABREU SILVA
-
Um Estudo sobre a Participação do Usuário Final no Ciclo de Vida de Desenvolvimento de Aplicações de Saúde: Da Análise do Estado da Arte à Proposição de Boas Práticas de Elicitação de Requisitos Utilizando o Padrão Arquétipo openEHR
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
FABIO JOSE COUTINHO DA SILVA
-
RODRIGO GUSMÃO DE CARVALHO ROCHA
-
MARIA LUCIA BENTO VILLELA
-
Data: 29/11/2024
-
-
Mostrar Resumo
-
Os Sistemas de Informação em Saúde (SIS) desempenham um papel fundamental na sociedade, fornecendo uma base tecnológica sólida para coletar, armazenar, processar e tomar decisões no setor de saúde. Devido ao aumento significativo de soluções de software e as limitações decorrentes das dificuldades associadas ao domínio da saúde, é fundamental a inclusão dos usuários finais no ciclo de vida de desenvolvimento de sistemas de software. Dentre os processos presentes no ciclo de vida, a fase de elicitação de requisitos desempenha um papel fundamental, pois é nesta fase que as necessidades e os objetivos do usuários são identificados e compreendidos, o que requer a utilização de técnicas que garanta a compreensão mais eficaz das necessidades do usuário e que atenda às suas expectativas. O padrão OpenEHR, por exemplo, oferece uma estrutura robusta para a modelagem e representação de informações clínicas, permitindo que os requisitos dos usuários sejam capturados, o que torna possível o desenvolvimento de sistemas de software que atendam às necessidades específicas dos profissionais de saúde e dos pacientes. Dessa forma, este estudo tem como objetivo buscar evidências no estado da arte e da prática a respeito das fases do processo de desenvolvimento o qual os profissionais de saúde são inseridos e as técnicas de elicitação de requisitos presentes no ciclo de vida de desenvolvimento de aplicações de saúde. Este trabalho realizou ainda um estudo com profissionais de saúde e engenheiros de requisitos para analisar se o conhecimento do especialista do domínio especificado por meio do arquétipo OpenEHR pode ser útil para representar os requisitos necessários para o desenvolvimento de aplicações de saúde. A partir de uma análise temática das respostas obtidas com a condução de entrevistas e aplicação de formulário online, foram identificados desafios e limitações que são enfrentados com as aplicações utilizadas. Submetendo os dados obtidos à análises estatísticas, como Alpha de Cronbach, ANOVA e correlação de Spearman, confirmou-se que o baixo envolvimento de profissionais da saúde no ciclo de vida do software implica diretamente na falta de adaptação dessas ferramentas às suas rotinas pois elas não refletem as suas reais necessidades. Considerando as perspectivas dos engenheiros de requisitos, ressaltou-se a importância do estreitamento entre eles e os especialistas de domínio, evidenciando como a interação pode contribuir para a criação de soluções mais adequadas às exigências clínicas e mais eficazes a longo prazo. Por fim, estes resultados fundamentam um conjunto de boas práticas voltadas para a elicitação e validação de requisitos, que se utilizam da capacidade do arquétipo openEHR de representar cenários e necessidades das partes interessadas com clareza em alto nível de detalhamento. Essas práticas visam reduzir o distanciamento entre o desenvolvimento técnico e as necessidades clínicas, promovendo um alinhamento mais preciso e centrado no usuário final.
-
Mostrar Abstract
-
Health Information Systems (HIS) play a fundamental role in society by providing a solid technological foundation for collecting, storing, processing, and making decisions in the healthcare sector. Due to the significant increase in software solutions and the limitations arising from the complexities of the healthcare domain, it is essential to include end users in the software development lifecycle. Among the processes in this lifecycle, the requirements elicitation phase plays a key role, as it is during this phase that users' needs and objectives are identified and understood. This requires techniques that ensure an adequate understanding of user needs and meet their expectations. The OpenEHR standard, for example, offers a robust framework for modeling and representing clinical information, allowing user requirements to be captured, which enables the development of software systems that meet the specific needs of healthcare professionals and patients. Thus, this study seeks evidence in state of the art and practice regarding the phases of the development process in which healthcare professionals are involved and the requirements elicitation techniques in the healthcare application development lifecycle. This work also studied with healthcare professionals and requirements engineers to analyze whether domain expertise specified through the OpenEHR archetype can help represent the requirements for developing healthcare applications. Challenges and limitations faced by current applications were identified through a thematic analysis of interview responses and an online survey. By subjecting the collected data to statistical analyses, such as Cronbach's Alpha, ANOVA, and Spearman's correlation, it was confirmed that the low involvement of healthcare professionals in the software lifecycle directly impacts the lack of adaptation of these tools to their routines, as they do not reflect their real needs. Considering the perspectives of requirements engineers, the study highlighted the importance of closer collaboration between them and domain experts, showing how this interaction can contribute to creating solutions more suited to clinical demands and more effective in the long term. Finally, these results support a set of best practices aimed at requirements elicitation and validation, utilizing the OpenEHR archetype’s ability to represent stakeholder scenarios and needs with clarity and a high level of detail. These practices aim to bridge the gap between technical development and clinical needs, promoting a more precise and user-centered alignment.
|
|
19
|
-
RODRIGO SANTOS DA SILVA
-
Reconstrução de dados de actigrafia orientados por IA
-
Orientador : THIAGO DAMASCENO CORDEIRO
-
MEMBROS DA BANCA :
-
ALLAN DE MEDEIROS MARTINS
-
BRUNO ALMEIDA PIMENTEL
-
GLAUBER RODRIGUES LEITE
-
THIAGO DAMASCENO CORDEIRO
-
TIAGO GOMES DE ANDRADE
-
Data: 12/12/2024
-
-
Mostrar Resumo
-
A actigrafia é uma técnica não invasiva para rastrear padrões de sono e ritmos circadianos, fornecendo dados valiosos para diagnosticar distúrbios do sono, como insônia, hipersonia e outras interrupções do ritmo circadiano. Apesar de sua utilidade, os dados de actigrafia geralmente sofrem de lacunas devido a períodos "fora do pulso" (OW), onde o dispositivo é temporariamente removido. Este estudo explora o uso de técnicas avançadas de aprendizado de máquina para abordar essas lacunas reconstruindo dados ausentes, aumentando assim a precisão e a confiabilidade das análises de actigrafia. O objetivo principal desta pesquisa é desenvolver técnicas de regressão para realizar imputação de dados, como um modelo de inteligência artificial de conjunto, capaz de se adaptar a padrões de dados individuais do paciente, e um Autoencoder para aprender os padrões de dados On-wrist (ON) para cada paciente. Para atingir isso, o estudo investiga vários métodos de aprendizado de máquina e aprendizado profundo, e diferentes configurações para o Autoencoder, além de incorporar estratégias como Dynamic Time Warping (DTW) e abordagens de filtragem baseadas em períodos de alta atividade, como M10. A metodologia envolve o pré-processamento de conjuntos de dados de actigrafia do dispositivo ActTrust da Condor, apresentando diversas variáveis como temperatura, exposição à luz e métricas de atividade do paciente. Para imputação de dados, o estudo utiliza modelos de regressão como Random Forests, XGBoost e Support Vector Regression, juntamente com estruturas de autoencoder otimizadas usando Keras Tuner e técnicas de ajuste de hiperparâmetros como GridSearch e RandomizedSearch. Os resultados preliminares indicam que o modelo Autoencoder tem um desempenho robusto, alcançando reduções no Erro Quadrático Médio (MSE) e demonstrando poder na reconstrução de dados de atividade ausentes em comparação aos métodos tradicionais. Os modelos de conjunto, otimizados para padrões específicos de atividade do paciente, melhoram ainda mais a precisão preditiva, conforme validado por testes estatísticos, incluindo o teste de Wilcoxon. Esses modelos exibem o potencial de transformar práticas clínicas, fornecendo avaliações personalizadas da qualidade do sono e facilitando intervenções direcionadas.
-
Mostrar Abstract
-
Actigraphy is a non-invasive technique that uses a wrist-worn device to track sleep patterns and circadian rhythms, providing valuable data for diagnosing sleep disorders such as insomnia and hypersomnia. However, gaps in actigraphy data often occur when the device is "off-wrist." This study explores the use of advanced Machine Learning and Deep Learning techniques to impute missing data, aiming to improve the accuracy and reliability of the analyses. The main objective is to develop robust data imputation pipelines utilizing a range of algorithms, including regression models (Random Forests, XGBoost, and Support Vector Regression), with hyperparameter optimization strategies such as Grid Search and Randomized Search and autoencoders optimized by Keras Tuner. Along with these regression strategies, we have vital data filtering strategies, including Dynamic Time Warping, leveraging the M10 variable, which represents the 10 hours of highest daily activity, and considering data surrounding off-wrist periods. In this study, the methodology preprocesses actigraphy datasets from the ActTrust device, incorporating variables such as temperature, light exposure, and activity metrics. Preliminary results demonstrate that autoencoder models outperform traditional methods in imputing missing data, significantly reducing Mean Squared Error. Combined models tailored to specific activity patterns further enhance predictive accuracy, as validated by statistical tests such as the Wilcoxon test. These findings highlight the potential of these models to improve clinical practice by enabling personalized sleep assessments and supporting targeted interventions.
|
|
20
|
-
ALENILTON SANTOS SILVA
-
Volatilidade de Requisitos em Ambientes Dinâmicos e com Múltiplos Stakeholders: Estratégias e Boas Práticas para Apoiar o Processo Ágil de Desenvolvimento de Aplicações de Software Governamentais
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
PAULA TOLEDO PALOMINO
-
RAFAEL DIAS ARAÚJO
-
Data: 18/12/2024
-
-
Mostrar Resumo
-
A crescente exigência por qualidade nos diversos aspectos de produtos de software ascende a complexidade nos processos que circundam o ciclo de vida do software. Algumas características agregam ainda mais complexidade ao processo de desenvolvimento, como a dinamicidade do ambiente e o alto número de stakeholders, que tornam os requisitos funcionais altamente voláteis. Nesse contexto, este estudo busca investigar, no estado da arte e da prática, como a qualidade de uma solução computacional e do seu processo de desenvolvimento, são impactados pela volatilidade de requisitos em ambientes dinâmicos e com múltiplos stakeholders. Para isso, foi executado um levantamento no estado da arte para compreender como a temática tem sido abordada e em que nível as investigações estão e, logo em seguida, foi considerada uma investigação prática de um ambiente real caracterizado como dinâmico e com múltiplos stakeholders. O objeto de estudo foi o PNLD Avaliação, software desenvolvimento para apoiar a Avaliação Pedagógica do Programa Nacional do Livro e Material Didático. No primeiro estágio foi executada uma inspeção histórica e documental dos artefatos de software gerados no ciclo de desenvolvimento, que permitiu entender as nuances do objeto de pesquisa, bem como identificar as partes interessadas e seus papéis, e os impactos nas alterações periódicas no escopo do projeto. Com a aplicação do teste estatístico Qui-Quadrado confirmou-se que as diferenças nos números de histórias de usuário alteradas, descontinuadas e finalizadas entre os dois períodos estudados, foram estatisticamente significativas e provavelmente não são devidas à variação aleatória. Em seguida, no segundo estágio, por meio de entrevistas semiestruturadas com diferentes stakeholders do projeto, foram revelados alguns desafios amplos na gestão de ambientes dinâmicos e com múltiplos stakeholders, pois, embora se utilize de metodologias ágeis, sua eficácia foi limitada sem uma documentação clara, definição falha de processos, sobrecarga das equipes, bem como a falta de um mediador formal que dificultou o alinhamento e a resolução de problemas críticos. Por fim, no terceiro estágio, foi aplicado o método SUS integrado a um questionário aberto para capturar as percepções dos usuários finais sobre o sistema estudado em relação à usabilidade. Embora o resultado geral do SUS tenha apontado para uma pontuação positiva (73.2, cinco pontos acima do mínimo), cerca de 40% dos usuários apontaram insatisfações gerais com o sistema. Para maior aprofundamento, as respostas abertas do questionário foram submetidas a uma Análise Temática Dedutiva, que apontou problemas estruturais, como integração inadequada e redundâncias que prejudicaram a produtividade e a experiência do usuário; a falta de iteração e feedback no desenvolvimento resultou em uma interface complexa, exigindo re-aprendizagem constante e frustrando os usuários. De modo geral, ao longo dessa condução, foram destacados como os conflitos de interesses, a comunicação falha entre stakeholders, e a não centralização dos processos nas partes interessadas, adicionam complexidade no ciclo de vida de software que, por consequência, é fragilizado ainda mais frente a dinamicidade do ambiente. A partir disso, fundamenta-se a proposição de um conjunto de boas práticas para apoiar a gestão de projetos de desenvolvimento de software que operam sob a complexidade de ambientes dinâmicos e com múltiplos stakeholders. Além disso, foi definido um processo de desenvolvimento ágil, levando em conta as nuances das melhores práticas estabelecidas, para promover melhorias e robustez nos fluxos de trabalho em ambientes semelhantes aos já caracterizados.
-
Mostrar Abstract
-
The increasing demand for quality across various aspects of software products heightens the complexity of processes surrounding the software lifecycle. Certain characteristics further amplify this complexity, such as the dynamic nature of the environment and the high number of stakeholders, which make functional requirements highly volatile. In this context, this study aims to investigate, both in the state of the art and practice, how the quality of a computational solution and its development process is impacted by requirement volatility in dynamic environments with multiple stakeholders. To achieve this, a state-of-the-art review was conducted to understand how the topic has been approached and the current level of investigations. Following this, a practical investigation was carried out in a real environment characterized as dynamic and involving multiple stakeholders. The case study focused on PNLD Avaliação, a software developed to support the Pedagogical Evaluation of the National Textbook and Teaching Material Program. In the first stage, a historical and documentary inspection of the software artifacts generated during the development lifecycle was conducted, allowing for a better understanding of the research object’s nuances, identifying stakeholders and their roles, and the impact of periodic scope changes. Applying the Chi-Square statistical test confirmed that differences in the number of user stories altered, discontinued, and completed across the two studied periods were statistically significant and likely not due to random variation. Subsequently, in the second stage, semi-structured interviews with various project stakeholders revealed several broad challenges in managing dynamic environments and multiple stakeholders. Despite the use of agile methodologies, their effectiveness was limited by unclear documentation, flawed process definitions, team overload, and the absence of a formal mediator, which hindered alignment and the resolution of critical issues. Finally, in the third stage, the SUS method was applied alongside an open questionnaire to capture end-user perceptions of the studied system's usability. Although the overall SUS score indicated a positive rating (73.2, five points above the minimum threshold), approximately 40% of users expressed general dissatisfaction with the system. For deeper insights, the open-ended questionnaire responses underwent Deductive Thematic Analysis, highlighting structural issues such as inadequate integration and redundancies that hampered productivity and user experience. The lack of iteration and feedback during development resulted in a complex interface requiring constant re-learning, frustrating users. Overall, this study emphasized how conflicting interests, poor communication among stakeholders, and the absence of process centralization around stakeholders add complexity to the software lifecycle, further weakening it in dynamic environments. Based on these findings, a set of best practices was proposed to support the management of software development projects operating in complex, dynamic environments with multiple stakeholders. Additionally, an agile development process was outlined, considering the nuances of established best practices to enhance workflows' robustness and efficiency in similar environments.
|
|
21
|
-
SIDARTA GOMES TENORIO
-
Um Estudo Randomizado Controlado para a Avaliação da Eficácia de
uma Ferramenta com IA para a Classificação de Imagens
-
Orientador : RANILSON OSCAR ARAUJO PAIVA
-
MEMBROS DA BANCA :
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
ANDRE MAGNO COSTA DE ARAUJO
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
RAFAEL FERREIRA LEITE DE MELLO
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 20/12/2024
-
-
Mostrar Resumo
-
Neste trabalho, foi avaliado o impacto do uso de um sistema baseado em Inteligência Artificial (IA) durante o processo de Triagem do Programa Nacional do Livro e do Material Didático (PNLD), uma política pública relevante para a educação no Brasil. Mais especificamente, o foco está na etapa de validação de inscrição e análise de atributos físicos no processo de Triagem, que, como um dos critérios considerados, requer a verificação qualitativa de imagens de obras e materiais didáticos, pedagógicos, literários e de apoio à prática educativa. Neste contexto, foi desenvolvido um sistema baseado em IA para a análise de imagens do PNLD. Como parte do sistema, um modelo de aprendizado profundo foi implementado e validado usando redes neurais convolucionais para resolver um problema de classificação multiclasse: desfoque, movimento e nítida. Para avaliar o impacto do sistema baseado em IA, foi realizado um estudo controlado randomizado com analistas vinculados ao PNLD. Buscou-se comparar o desempenho dos analistas participantes em dois cenários: (1) quando não utilizavam quaisquer tipos de ferramentas de apoio ao processo e (2) quando utilizavam, como suporte de suporte à decisão. Com a realização do experimento, foi possível observar que a produtividade do grupo que usou a ferramenta com IA foi aumentada. Apesar de não ter sido observada uma diferença estatisticamente significativa entre os dois grupos, considerando que o grupo que usou a ferramenta com IA avaliou um número muito maior de imagens, a qualidade foi ao menos mantida em relação ao grupo de controle. Portanto, o uso da ferramenta
com IA é eficaz no aumento da produtividade, mantendo a qualidade das avaliações.
-
Mostrar Abstract
-
This study evaluated the impact of using an Artificial Intelligence (AI)- based system during the Screening process of the National Textbook and Teaching Material Program (Programa Nacional do Livro e do Material Didático - PNLD), a significant public policy for education in Brazil. Specifically, the focus was on the registration validation and physical attribute analysis stages of the Screening process, which, among other criteria, require the qualitative verification of images of textbooks, teaching materials, pedagogical resources, literary works, and educational support materials. Thus, we developed an AI-based system to analyze PNLD images. As part of the system, we implemented and validated a deep learning model using convolutional neural networks to address a multiclass classification problem: blur, motion, and sharpness. To assess the impact of the AI-based system, we conducted a randomized controlled study with analysts involved in the PNLD process. The study aimed to compare the performance of the participating analysts in two scenarios: (1) without any decision-support tools and (2) with the AI-based tool as a decision-support aid. The experiment demonstrated that the group's productivity using the AI tool increased. Although no statistically significant difference was observed between the two groups, considering that the group using the AI tool evaluated a much larger number of images, the quality of the evaluations was at least maintained compared to the control group. Therefore, using the AI tool proves to be effective in increasing productivity while maintaining the quality of assessments.
|
|