|
Dissertações |
|
|
1
|
-
RAFAEL MONTEIRO LARANJEIRA
-
Um Framework Abrangente para Classificação da Fibrilação Atrial: das Imagens de ECG à Análise Multimodal
-
Orientador : THIAGO DAMASCENO CORDEIRO
-
MEMBROS DA BANCA :
-
THIAGO DAMASCENO CORDEIRO
-
BRUNO ALMEIDA PIMENTEL
-
ESTELA RIBEIRO
-
MARCO ANTONIO GUTIERREZ
-
Data: 31/01/2025
-
-
Mostrar Resumo
-
Esta pesquisa apresenta um framework abrangente para a detecção automatizada de fibrilação atrial (FA) que preenche a lacuna entre a prática clínica e as técnicas avançadas de aprendizado de máquina. Introduzimos um fluxo de processamento que transforma imagens padrão de exames de ECG de 12 derivações em múltiplas representações complementares, permitindo uma investigação sistemática de diferentes abordagens para a detecção de FA. O framework processa imagens brutas de ECG para extrair dados da derivação II, que são então transformados em três modalidades distintas: imagens processadas, séries temporais e espectrogramas. Cada modalidade é então analisada usando arquiteturas de redes neurais especializadas que são otimizadas para suas características específicas.
A investigação envolve dois cenários experimentais: uma comparação balanceada entre FA e ritmos normais e um cenário clinicamente realista que mantém as distribuições naturais das classes. No cenário balanceado, a abordagem multimodal alcançou um F1-score de $0,9928 \pm 0,0002$, enquanto as modalidades individuais alcançaram consistentemente valores acima de $0,97$. No cenário clinicamente realista, onde os casos de FA representaram $8,45\%$ dos dados, a robustez do framework foi demonstrada com a abordagem multimodal alcançando um F1 score de $0,8859$. A validação externa usando o conjunto de dados Zheng-DB confirmou a generalização do framework, com a abordagem multimodal mantendo um forte desempenho ($F1 = 0,9813 \pm 0,0036$) em condições balanceadas.
Um aspecto interessante da nossa abordagem é o mecanismo de fusão ponderada que combina recursos de cada modalidade, usando pesos aprendidos para determinar como as diferentes representações contribuem para a análise final. Nossos experimentos mostram que esses pesos se adaptam significativamente à complexidade da tarefa, mantendo contribuições equilibradas entre as modalidades (imagem: $0,3382 \pm 0,0025$, espectrograma: $0,3450 \pm 0,0033$, série temporal: $0,3167 \pm 0,0045$) para discriminar a FA de ritmos normais, ao mesmo tempo em que mostra uma forte especialização (série temporal: $0,5025 \pm 0,1252$) para discriminar a FA de várias arritmias. Esse comportamento adaptativo demonstra a capacidade do mecanismo de otimizar o uso de recursos com base em desafios de classificação específicos, contribuindo para um desempenho robusto em diferentes cenários clínicos.
Esta pesquisa contribui para o campo da análise automatizada de ECG, fornecendo evidências empíricas para a eficácia de diferentes representações de dados na detecção de FA. A capacidade do framework de processar imagens de ECG padrão o torna compatível com os ambientes onde apenas o formato de imagem está disponível, o que pode facilitar sua adoção em ambientes com menos recursos e médicos disponíveis. Embora uma validação adicional em ambientes clínicos seja valiosa, nossos resultados sugerem que essa abordagem pode servir como uma ferramenta útil para apoiar os profissionais de saúde na interpretação de ECGs, particularmente em cenários onde múltiplas modalidades de análise podem complementar os métodos diagnósticos tradicionais.
-
Mostrar Abstract
-
This research presents a comprehensive framework for automated atrial fibrillation (AF) classification that bridges the gap between clinical practice and advanced machine learning techniques. We introduce a pipeline that transforms standard 12-lead electrocardiogram (ECG) examination images into multiple complementary representations, enabling a systematic investigation of different approaches to AF classification. The framework processes raw ECG images to extract Lead II data, which is then transformed into three distinct modalities: processed images, time series, and spectrograms. Each modality is then analyzed using specialized neural network architectures that are optimized for their specific characteristics.
The investigation involves two experimental scenarios: a balanced comparison between AF and normal rhythms, and a clinically realistic setting that maintains natural class distributions. In the balanced scenario, the multimodal approach achieved an F1 score of $0.9928 \pm 0.0002$, while individual modalities consistently achieved scores above $0.97$. In the clinically realistic scenario, where AF cases represented $8.45\%$ of the data, the framework's robustness was demonstrated with the multimodal approach achieving an F1 score of $0.8859$. External validation using the Zheng-DB dataset confirmed the framework's generalizability, with the multimodal approach maintaining strong performance (F1 score = 0.9813 $\pm$ 0.0036) in balanced conditions.
A notable aspect of our approach is the weighted fusion mechanism that combines features from each modality, using learned weights to determine how different representations contribute to the final analysis. Our experiments show that these weights adapt significantly with task complexity, maintaining balanced contributions across modalities (image: $0.3382 \pm 0.0025$, spectrogram: $0.3450 \pm 0.0033$, time series: $0.3167 \pm 0.0045$) to discriminate AF from normal rhythms, while showing strong specialization (time series: $0.5025 \pm 0.1252$) to discriminate AF from various arrhythmias. This adaptive behavior demonstrates the mechanism's ability to optimize feature usage based on specific classification challenges, contributing to robust performance in different clinical scenarios.
This research contributes to the field of automated ECG analysis by providing empirical evidence for the effectiveness of different data representations in AF classification. The framework's ability to process standard ECG images renders it compatible with environments where only the image format is available, potentially facilitating its adoption in clinical scenarios where resources are limited. While further validation in clinical environments would be valuable, our results suggest that this approach could serve as a useful tool to support healthcare professionals in ECG interpretation, particularly in scenarios where multiple modalities of analysis can complement traditional diagnostic methods.
|
|
|
2
|
-
JANAINA XISTO LIMA SOARES
-
Um Modelo de Aprendizado Profundo para Detectar Caracterização de Documentos Digitais: Estudo de Caso no PNLD
-
Orientador : ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
MEMBROS DA BANCA :
-
ALAN PEDRO DA SILVA
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
RAFAEL FERREIRA LEITE DE MELLO
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 31/01/2025
-
-
Mostrar Resumo
-
O Programa Nacional do Livro e do Material Didático (PNLD) é uma política pública relevante no âmbito da educação básica, responsável por avaliar e selecionar os materiais didáticos utilizados em escolas públicas brasileiras. A seleção imparcial de obras digitais, sem a influência de aspectos extrínsecos (exemplo, identificação do autor e da editora), é importante para favorecer a qualidade e a validação por especialista em um processo de avaliação. Periódicos científicos têm adotado esse método visando promover avaliações sem vieses e imparciais para que as pesquisas de alta qualidade sejam publicadas e capazes de contribuir para o progresso da área. Na literatura científica, a descaracterização tem sido utilizada principalmente no campo da saúde e da área jurídica. Entretanto, não foram identificados estudos relacionados a descaracterização de documentos no contexto educacional. Neste estudo, o objetivo principal é propor um modelo para a detecção de caracterização em documentos digitais utilizando técnicas de inteligência artificial. Tais técnicas têm se mostrado eficazes em diversos contextos, permitindo que programas de computador aprendam a partir de experiências e realizem tarefas complexas de forma automatizada. Para a avaliação do modelo, foi realizado um estudo de caso no PNLD. Portanto, nesta pesquisa, objetiva-se preencher essa lacuna temática e social, proporcionando um processo de inscrição mais eficiente e impessoal, além de explorar o potencial da inteligência artificial no campo educacional. Os resultados mostraram a viabilidade do uso do modelo proposto como uma ferramenta tecnológica. Seus benefícios englobam, principalmente, a economia de tempo, a melhoria na qualidade das análises, e o menor índice de erros e de retrabalho, a qual pode ser adaptada para outros processos de identificação e descaracterização de documentos.
-
Mostrar Abstract
-
The impartial selection of digital works, without the influence of extrinsic aspects (e.g., author and publisher identification), is relevant to ensure integrity and fairness in an evaluation process. The National Textbook Program (Programa Nacional do Livro e do Material Didático - PNLD) is an example of a relevant program in the field of basic education, responsible for evaluating and selecting the teaching materials used in Brazilian public schools. However, in the scientific literature, the disidentification of works in the educational context is still not explored. In this study, it is proposed the implementation and evaluation of a model of de-identification of digital works based on deep learning, using techniques such as Bidirectional Long Short-Term Memory. For the evaluation of the model, a case study is carried out in the PNLD. Therefore, this research aims to fill this thematic and social gap, providing a more efficient and impersonal application process, in addition to exploring the potential of artificial intelligence in the educational field. In the case study, a new database created with texts from PNLD digital works will be used for training and testing the deep learning model. In addition, interviews will be conducted with participants in the process of validating books in the PNLD in order to analyze the acceptance and usefulness of this type of solution.
|
|
|
3
|
-
TARCÍSIO LIMA FERREIRA
-
TOWARDS AUTOMATING LUNG-RADS CLASSIFICATION IN CLINICAL ROUTINE: INSIGHTS FROM PORTUGUESE RADIOLOGY REPORTS
-
Orientador : MARCELO COSTA OLIVEIRA
-
MEMBROS DA BANCA :
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
MARCELO COSTA OLIVEIRA
-
PAULO MAZZONCINI DE AZEVEDO MARQUES
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
Data: 13/02/2025
-
-
Mostrar Resumo
-
O câncer de pulmão tem a maior taxa de mortalidade entre todos os tipos de câncer, tanto para homens quanto para mulheres. Estima-se que o câncer de pulmão seja responsável por 21% das mortes por câncer em cada gênero. Essa estatística alarmante destaca o impacto significativo do câncer de pulmão na mortalidade geral por câncer, sublinhando a necessidade urgente de estratégias eficazes de prevenção, detecção precoce e tratamento para combater essa doença. O rastreamento do câncer de pulmão é um processo projetado para detectar o câncer de pulmão em indivíduos em risco, particularmente aqueles com histórico de tabagismo. Envolve tomografias computadorizadas de baixa dose anuais, interpretação cuidadosa dos resultados e acompanhamento oportuno para garantir a detecção e o tratamento precoces. Várias sociedades profissionais, incluindo a ACR e a Sociedade Fleischner, publicaram diretrizes para o manejo de pacientes com nódulos pulmonares detectados durante o rastreamento de câncer de pulmão. As diretrizes são uma ferramenta importante em programas de rastreamento que visam reduzir a incidência de exames de acompanhamento desnecessários e orientar o manejo ideal do paciente. Lung CT Screening Reporting & Data System (Lung-RADS) é um sistema de classificação padronizado para nódulos pulmonares detectados em exames de imagem, como tomografias computadorizadas. O Lung-RADS avalia o risco de malignidade (câncer) nesses nódulos e orienta as decisões de manejo subsequentes. Neste contexto, este trabalho visa analisar a eficácia de modelos de aprendizado profundo e LLM na extração de características de nódulos pulmonares de laudos de TC em português para permitir a classificação automatizada Lung-RADS. Este trabalho avaliou a eficácia de BiLSTM-CRF, BioBERTpt, Gemini 1.5 Flash, GPT-4-o e Llama-3 70B. Nossas descobertas indicam que o GPT-4-o emergiu como o melhor modelo, atingindo as métricas de avaliação mais altas em quatro das cinco classificações Lung-RADS no conjunto de teste, com um F1-score macro-médio de 0,73 e um F1-score ponderado de 0,96, destacando sua eficácia e confiabilidade na avaliação precisa de nódulos pulmonares em vários cenários de classificação.
-
Mostrar Abstract
-
Lung cancer has the highest mortality rate among all cancer types for both males and females. It is estimated that lung cancer accounts for 21% of cancer deaths in each gender. This alarming statistic highlights the significant impact of lung cancer on overall cancer mortality, underscoring the urgent need for effective prevention, early detection, and treatment strategies to combat this disease. Lung cancer screening is a process designed to detect lung cancer in individuals at risk, particularly those with a history of smoking. It involves annual low-dose computed tomography scans, careful interpretation of the results, and timely follow-up care to ensure early detection and treatment. Multiple professional societies, including the ACR and the Fleischner Society, have published guidelines for managing patients with pulmonary nodules detected during lung cancer screening. Guidelines are an important tool in screening programs that aim to reduce the incidence of unnecessary follow-up exams and guide optimal patient management. Lung CT Screening Reporting \& Data System (Lung-RADS) is a standardized classification system for lung nodules detected on imaging exams such as CT scans. Lung-RADS assesses the risk of malignancy (cancer) in these nodules and guides subsequent management decisions. In this context, this work aims to analyze the effectiveness of deep learning and LLM models in extracting lung nodule characteristics from Portuguese CT reports to enable automated Lung-RADS classification. This work assessed the effectiveness of BiLSTM-CRF, BioBERTpt, Gemini 15 Flash, GPT-4-o, Llama-3 70B. Our findings indicate that GPT-4-o emerged as the best model, achieving the highest evaluation metrics in four of the five Lung-RADS classifications in the test set, with a macro-average F1-score of 0.73 and a weighted-average F1-score of 0.96 highlighting its effectiveness and reliability in accurately assessing lung nodules across various classification scenarios.
|
|
|
4
|
-
BRENDO HENRIQUE DE LIMA
-
APRENDIZADO DE MÁQUINA NA PRECIFICAÇÃO DE EMPRESAS: UMA ESTRATÉGIA DE INVESTIMENTO
-
Orientador : EVANDRO DE BARROS COSTA
-
MEMBROS DA BANCA :
-
EVANDRO DE BARROS COSTA
-
JOSÉ ANTÃO BELTRÃO MOURA
-
LUCIANA PEIXOTO SANTA RITA
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
Data: 07/03/2025
-
-
Mostrar Resumo
-
Os modelos tradicionais de valuation apresentam desafios significativos. Suas limitações incluem o viés, que compromete a imparcialidade devido a informações prévias e pressões externas; a incerteza, comum em startups e empresas em transição; e a complexidade, intensificada pela globalização e mudanças nas normas contábeis. Além disso, técnicas como o fluxo de caixa descontado podem ser complexos demais e de pouca capacidade de generalização, tornando-se rapidamente obsoletos por dependerem de parâmetros específicos de cada empresa e momento. Este artigo propõe uma metodologia com dois objetivos:precificar empresas listadas na bolsa de valores B3 e, a partir desse método de precificação, selecionar ativos para compor uma estratégia de investimento. Utilizando algoritmos de Aprendizado de Máquina, o estudo adota o valor de mercado(MarketCap) como variável dependente e explora diversos modelos para determinar o preço justo de empresas. A precisão dos modelos foi avaliada pela métrica Mean Absolute Percentage Error(MAPE), indicando a necessidade de dados adicionais para mitigar sobreajuste e subajuste. A estratégia de investimento, que seleciona empresas subvalorizadas e rebalanceia o portfólio trimestralmente, mostrou-se eficaz em superar o benchmark em quase todos os grupos de dados e algoritmos testados. Por fim, as evidências estatísticas indicaram que não há relação entre a métrica MAPE e os retornos obtidos pelas estratégias de investimento.
-
Mostrar Abstract
-
Traditional valuation models present significant challenges. Their limitations include bias, which compromises impartiality due to prior information and external pressures; uncertainty, common in startups and transitioning companies; and complexity, intensified by globalization and changes in accounting standards. Additionally, techniques like discounted cash flow may be overly complex and not easily generalizable, quickly becoming obsolete due to their de- pendence on company and time-specific parameters. This article proposes a methodology with two objectives: to price companies listed on the B3 stock exchange and, based on this pricing method, to select assets for an investment strategy. Using machine learning algorithms, the study adopts market capitalization (Market Cap) as the dependent variable and explores various models to determine the fair price of companies. The accuracy of the models was evaluated using the Mean Absolute Percentage Error (MAPE) metric, indicating the need for additional data to mitigate overfitting and underfitting. The investment strategy, which selects undervalued companies and rebalances the portfolio quarterly, proved effective in outperforming the bench- mark in almost all data groups and algorithms tested. Finally, statistical evidence indicated that there is no relationship between the MAPE metric and the returns achieved by the investment strategies.
|
|
|
5
|
-
IRIS VIANA DOS SANTOS SANTANA
-
Um Modelo de Rede Neural Convolucional com Atenção Multi-head para a Detecção de DDoS em Redes 5G
-
Orientador : ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
MEMBROS DA BANCA :
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
EVANDRO DE BARROS COSTA
-
LEANDRO DIAS DA SILVA
-
ANGELO PERKUSICH
-
DANILO FREIRE DE SOUZA SANTOS
-
Data: 28/03/2025
-
-
Mostrar Resumo
-
O aumento da ocorrência de ataques de Negação de Serviço Distribuída (Distributed Denial of Service - DDoS) tornou-se uma preocupação global de segurança, impulsionada pela rápida transformação digital, acelerada pela pandemia da COVID-19 e pela adoção das redes 5G nas indústrias. Em comparação com as gerações anteriores, as redes 5G conectam um número maior de dispositivos à Internet, viabilizando casos de uso complexos, como o Internet das Coisas (Internet of Things - IoT) Industrial. Com a crescente diversidade de cenários de aplicação que utilizam dispositivos inadequadamente protegidos, as vulnerabilidades também aumentaram, facilitando a exploração de brechas de segurança por agentes mal-intencionados. O uso de técnicas de aprendizado profundo para a detecção de ataques DDoS em redes 5G surge como uma solução promissora. Um modelo de rede neural convolucional com atenção Multi-head, treinado com um conjunto de dados balanceado e sem seleção de características, alcançou 97% de acurácia, enquanto um modelo treinado com um conjunto de dados desbalanceado obteve 91%. Esses resultados demonstram o potencial das redes neurais como uma solução escalável para mitigar ameaças de DDoS em redes 5G de próxima geração. Além de melhorar a acurácia da detecção, essa abordagem permite a identificação de ataques em tempo real, garantindo uma defesa proativa contra ameaças cibernéticas em constante evolução. Os achados reforçam que redes neurais podem contribuir para a segurança de infraestruturas críticas em ambientes 5G, incluindo dispositivos IoT, sistemas de telecomunicações e outros serviços interconectados. A implementação dessas soluções fortalece a segurança das redes 5G, reduzindo os riscos de ataques cibernéticos e aumentando a resiliência diante de desafios emergentes.
-
Mostrar Abstract
-
The increasing occurrence of Distributed Denial of Service (DDoS) attacks has become a global security concern, driven by the rapid digital transformation accelerated by the COVID-19 pandemic and the adoption of 5G networks in industries. Compared to previous generations, 5G networks connect more devices to the Internet, enabling complex use cases such as the Industrial Internet of Things (IoT). With the rise of different application scenarios using inadequately protected devices, vulnerabilities have increased, making it easier for threat actors to exploit security gaps. Applying deep learning techniques for DDoS attack detection in 5G networks presents a promising solution. A Convolutional Neural Network Model with Multi-head Attention trained with a balanced dataset, without feature selection, achieved 97\% accuracy, while a model trained with an unbalanced dataset reached 91\%. These results highlight the potential of neural networks as a scalable solution for mitigating DDoS threats in next-generation 5G networks. Beyond improving detection accuracy, this approach enables real-time attack identification, ensuring a proactive defense against evolving cybersecurity threats. The findings demonstrate that neural networks can help secure critical infrastructure in 5G environments, including IoT devices, telecommunications systems, and other networked services. Implementing these solutions enhances 5G network security, reducing cyberattack risks and strengthening resilience against emerging challenges.
|
|
|
6
|
-
GIOVANNA QUINTELLA JUCÁ DUARTE OITICICA
-
PERFIS DE ESPESSURA EPITELIAL E PAQUIMÉTRICA EM OLHOS NORMAIS E COM CERATOCONE IDENTIFICADOS POR INTELIGÊNCIA ARTIFICIAL
-
Orientador : AYDANO PAMPONET MACHADO
-
MEMBROS DA BANCA :
-
AYDANO PAMPONET MACHADO
-
MARCELLA QUARESMA SALOMAO HOYER DE CARVALHO
-
MARCELO COSTA OLIVEIRA
-
RENATO AMBRÓSIO JÚNIOR
-
Data: 31/03/2025
-
-
Mostrar Resumo
-
Este estudo investigou o uso do algoritmo de aprendizagem de máquina não supervisionado k-means para identificar padrões morfológicos em mapas de espessura epitelial e paquimétrica da córnea, com o objetivo de diferenciar olhos normais de olhos com ceratocone. A amostra foi composta por 496 olhos, sendo 306 normais e 190 com diagnóstico de ceratocone, analisados por tomografia de coerência óptica de domínio Fourier. A segmentação dos mapas revelou diferenças significativas entre os grupos. Em olhos com ceratocone, observou-se afinamento epitelial central (50,4 µm vs. 52,7 µm nos olhos normais, p < 0,001) e maior espessura nas regiões periféricas superiores (54,3 µm vs. 51,5 µm, p < 0,001). A paquimetria central também foi significativamente menor nos olhos com ceratocone (475,79 µm) em comparação aos normais (524,6 µm), com maior variabilidade intraocular (DP ± 49,39 µm). O ponto de menor espessura apresentou deslocamento para a região ínfero-temporal, enquanto nas córneas normais o afinamento concentrou-se na região central. A aplicação do k-means permitiu a identificação de clusters distintos de espessura epitelial e total, com redução do número e simetria dos agrupamentos em olhos com ceratocone. Esses achados reforçam o potencial da inteligência artificial na detecção precoce e estratificação da ectasia corneana, contribuindo para uma triagem mais segura e objetiva de pacientes candidatos à cirurgia refrativa.
-
Mostrar Abstract
-
This study investigated the use of the unsupervised k-means machine learning algorithm to identify morphological patterns in corneal epithelial and pachymetric thickness maps, with the aim of differentiating normal eyes from eyes with keratoconus. The sample consisted of 496 eyes, 306 normal and 190 diagnosed with keratoconus, analyzed by Fourier domain optical coherence tomography. The segmentation of the maps revealed significant differences between the groups. In eyes with keratoconus, central epithelial thinning (50.4 µm vs. 52.7 µm in normal eyes, p < 0.001) and greater thickness in the upper peripheral regions (54.3 µm vs. 51.5 µm, p < 0.001) were observed. Central pachymetry was also significantly lower in eyes with keratoconus (475.79 µm) compared to normal eyes (524.6 µm), with greater intraocular variability (SD ± 49.39 µm). The point of thinnest thickness was displaced to the inferotemporal region, while in normal corneas the thinning was concentrated in the central region. The application of k-means allowed the identification of distinct clusters of epithelial and total thickness, with a reduction in the number and symmetry of the clusters in eyes with keratoconus. These findings reinforce the potential of artificial intelligence in the early detection and stratification of corneal ectasia, contributing to a safer and more objective screening of patients who are candidates for refractive surgery.
|
|
|
7
|
-
LETÍCIA ROCHA DE OLIVEIRA
-
ESTEREÓTIPOS EM PRÁTICAS PEDAGÓGICAS: UM ESTUDO EM LEARNING ANALYTICS PARA INVESTIGAR A AUTOPERCEPÇÃO DE PROFESSORES
-
Orientador : DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
MEMBROS DA BANCA :
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
ANDRE MAGNO COSTA DE ARAUJO
-
LUIZ ANTONIO LIMA RODRIGUES
-
RAFAEL DIAS ARAÚJO
-
Data: 28/05/2025
-
-
Mostrar Resumo
-
A aprendizagem é um processo pelo qual o indivíduo adquire novos conhecimentos, habilidades, valores, atitudes e comportamentos, sendo influenciado significativamente pelo contexto educacional e social no qual está inserido. Nesse cenário, os estereótipos são entendidos como modelos generalizados de comportamento que influenciam as percepções e ações dos indivíduos, podendo impactar diretamente as decisões pedagógicas e as avaliações realizadas pelos professores em sala de aula. Considerando que os docentes frequentemente lidam com turmas numerosas, as ferramentas de análise de aprendizagem (Learning Analytics- LA) surgem como suporte relevante para monitorar de maneira mais eficaz o desempenho e comportamento dos alunos, possibilitando intervenções rápidas, orientadas por dados concretos e contextualizados. Este estudo teve como objetivo investigar a percepção dos professores sobre estereótipos presentes em suas práticas pedagógicas, utilizando para isso ferramentas e conceitos associados ao Learning Analytics e aos princípios éticos relacionados à justiça, responsabilidade e transparência (FATE). Insere-se, assim, no campo da informática na educação, ao explorar como tecnologias digitais podem ser aplicadas de forma crítica e responsável no contexto escolar. A metodologia envolveu a realização de uma revisão sistemática detalhada da literatura, complementada por entrevistas qualitativas com professores em escolas presenciais, utilizando cenários hipotéticos ilustrados por meio de storyboards para suscitar reflexões sobre a presença de estereótipos. Os resultados indicam que a utilização de Learning Analytics é viável e potencialmente eficaz no contexto de escolas presenciais, especialmente para identificar padrões relacionados a estereótipos e desigualdades educacionais. No entanto, destaca-se a importância de que sua supervisão cumpra os princípios éticos do FATE, garantindo transparência na manipulação e uso dos dados educacionais, além de promover práticas pedagógicas que respeitem a diversidade e combatam estereótipos específicos no ambiente escolar. A discussão proposta reforça a necessidade de uma abordagem fundamentada na ética para o uso de tecnologias educacionais que pretendem contribuir para a equidade no ensino.
-
Mostrar Abstract
-
Learning is a process by which an individual acquires new knowledge, skills, values, attitudes and behaviors, and is significantly influenced by the educational and social context in which they are inserted. In this scenario, stereotypes are understood as generalized models of behavior that influence the perceptions and actions of individuals, and can directly impact pedagogical decisions and assessments carried out by teachers in the classroom. Considering that teachers often deal with large classes, learning analytics (LA) tools emerge as a relevant support for more effectively monitoring student performance and behavior, enabling rapid interventions, guided by concrete and contextualized data. This study aimed to investigate teachers' perceptions of stereotypes present in their pedagogical practices, using tools and concepts associated with Learning Analytics and the ethical principles related to justice, accountability and transparency (FATE). It is therefore part of the field of information technology in education, by exploring how digital technologies can be applied critically and responsibly in the school context. The methodology aims to conduct a detailed systematic review of the literature, complemented by qualitative interviews with teachers in face-to-face schools, using hypothetical scenarios illustrated through storyboards to prompt reflections on the presence of stereotypes. The results indicate that the use of Learning Analytics is feasible and potentially effective in the context of face-to-face schools, especially for identifying patterns related to stereotypes and educational inequalities. However, it is important to highlight the importance of transparency and supervision that complies with the ethical principles of FATE, ensuring the manipulation and use of educational data, in addition to promoting pedagogical practices that respect diversity and combat specific stereotypes in the school environment. The proposed discussion reinforces the need for an ethically-based approach to the use of educational technologies that aim to contribute to equity in education.
|
|
|
8
|
-
ARTUR BREDERODES DA COSTA NETO
-
Comparação de Técnicas de Aprendizado de Máquina para Classificação de Movimentos de Mãos Usando Sinais de sEMG
-
Orientador : THIAGO DAMASCENO CORDEIRO
-
MEMBROS DA BANCA :
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
RODRIGO LISBÔA PEREIRA
-
THIAGO DAMASCENO CORDEIRO
-
Data: 23/06/2025
-
-
Mostrar Resumo
-
Em uma era de rápido avanço científico e tecnológico, a eletromiografia expandiu-se além dos diagnósticos tradicionais para incluir a análise de movimentos. O reconhecimento de gestos manuais desempenha um papel fundamental em sistemas de controle, saúde, interação humano-computador e robótica. A eletromiografia de superfície (sEMG) capta eficazmente a atividade muscular, oferecendo informações valiosas sobre as intenções de movimento do usuário. Este trabalho tem como objetivo treinar modelos de aprendizado de máquina para o reconhecimento e a classificação de movimentos das mãos utilizando sinais de sEMG. Para isso, foi realizado um mapeamento sistemático visando identificar os principais classificadores, métodos de aumento de dados e características utilizadas na classificação de movimentos do membro superior. A metodologia envolveu a seleção de bases de dados, o pré-processamento e a análise dos sinais. Diversos modelos de aprendizado de máquina foram estudados e implementados, incluindo K-Nearest Neighbors (KNN), Artificial Neural Networks (ANN), Random Forest (RF), Support Vector Machines (SVM) e Convolutional Neural Networks (CNN). Os resultados do mapeamento indicam que a combinação de data augmentation com algoritmos de aprendizado é uma tendência predominante. Na análise do conjunto DB5, a avaliação de diferentes combinações de características demonstrou a importância da seleção de features para o desempenho dos modelos. A combinação de Root Mean Square, High Resolution Magic, Zero Crossing, Slope Sign Change List e Rough Entropy obteve a maior acurácia (96%), com baixa variação e poucos outliers. Ao comparar os resultados de diferentes bases (subconjuntos de DB1 e DB2), com sinais de características semelhantes, foi avaliada a acurácia média de três modelos (ANN, KNN e RF). No conjunto Ninapro, o KNN teve melhor desempenho (88%), seguido pela ANN (83%) e RF (79%). Já no Myo, a ANN obteve a melhor acurácia (86%), superando o RF (82%) e o KNN (78%). Em resumo, os resultados mostram que a seleção criteriosa de características é essencial para alta acurácia na classificação de gestos com sEMG. A comparação entre modelos em diferentes bases destacou a consistência e robustez da ANN como candidata promissora para aplicações com necessidade de generalização, embora o desempenho ideal dependa das características de cada conjunto
-
Mostrar Abstract
-
In an era of rapid scientific and technological advancement, electromyography has expanded beyond traditional diagnostics to encompass movement analysis. Hand gesture recognition plays a key role in control systems, healthcare, human-computer interaction, and robotics. Surface electromyography (sEMG) effectively captures muscle activity, offering valuable insights into user movement intentions. The main objective of this work is to train machine learning models for the recognition and classification of hand movements using sEMG signals. To support this approach, a systematic mapping was conducted to identify the main classifiers, data augmentation methods, and features used in upper limb movement classification based on sEMG. The methodology involved selecting datasets, preprocessing, and analyzing sEMG signals. Various machine learning models were studied and implemented for automatic classification, including K-Nearest Neighbors (KNN), Artificial Neural Networks (ANN), Random Forest (RF), Support Vector Machines (SVM), and Convolutional Neural Networks (CNN). The results from the systematic mapping indicate that combining data augmentation with machine learning algorithms is a dominant trend. In the analysis of the DB5 dataset, the evaluation of different feature combinations demonstrated the importance of feature selection for model performance. The combination of Root Mean Square, High Resolution Magic, Zero Crossing, Slope Sign Change List, and Rough Entropy achieved the highest accuracy, reaching 96%, with low variation and few outliers. When comparing results obtained from the datasets (using subsets of DB1 and DB2, which share similarities in signal characteristics), the average accuracy of three machine learning models (ANN, KNN, and RF) was evaluated. In the Ninapro dataset, KNN achieved the best performance (88% accuracy), followed by ANN (83%) and RF (79%). In contrast, for the Myo dataset, ANN showed the best accuracy (86%), outperforming RF (82%) and KNN (78%). In summary, the results emphasize that careful feature selection is crucial for achieving high accuracy in sEMG gesture classification. The comparison between models across different datasets highlighted the consistency and robustness of ANN as a promising candidate for applications requiring generalization. However, optimal performance may vary depending on the specific characteristics of each dataset.
|
|
|
9
|
-
WELLINGTON BATALHA DOS SANTOS
-
IDENTIFICANDO PADRÕES EM DADOS SOCIOECONÔMICOS DE ESTUDANTES UNIVERSITÁRIOS: UMA ABORDAGEM DE AGRUPAMENTO E REGRAS DE ASSOCIAÇÃO NA UNIVERSIDADE FEDERAL DE ALAGOAS.
-
Orientador : BRUNO ALMEIDA PIMENTEL
-
MEMBROS DA BANCA :
-
BRUNO ALMEIDA PIMENTEL
-
THIAGO DAMASCENO CORDEIRO
-
RENÊ PEREIRA DE GUSMÃO
-
Data: 26/06/2025
-
-
Mostrar Resumo
-
A assistência estudantil desempenha um papel crucial na promoção da inclusão e na redução da evasão acadêmica, especialmente em instituições públicas como a Universidade Federal de Alagoas (UFAL). Para melhorar a eficácia desses programas, é essencial compreender os perfis socioeconômicos dos estudantes e identificar padrões que indiquem suas principais necessidades. Nesse contexto, o Aprendizado de Máquina, especialmente o Aprendizado Não Supervisionado, surge como uma ferramenta poderosa para analisar grandes volumes de dados complexos e não rotulados. Este estudo investiga a aplicação de técnicas de Aprendizado de Máquina não supervisionado, como Regras de Associação e Agrupamento (clusterização), para explorar os dados socioeconômicos dos estudantes da UFAL. Essas técnicas permitem identificar relações frequentes entre variáveis e segmentar os alunos em grupos com características similares, possibilitando uma análise mais detalhada das necessidades de cada perfil. Os resultados esperados incluem a descoberta de padrões que possam guiar a alocação mais eficiente de recursos e a formulação de políticas de assistência mais direcionadas. Dessa forma, a pesquisa busca contribuir para a criação de estratégias que promovam um ambiente acadêmico mais inclusivo, equitativo e com menor evasão.
-
Mostrar Abstract
-
Student assistance plays a crucial role in promoting inclusion and reducing academic dropout rates, particularly in public institutions like the Federal University of Alagoas (UFAL). To enhance the effectiveness of these programs, it is essential to understand the socioeconomic profiles of students and identify patterns that reveal their main needs. In this context, Machine Learning, especially Unsupervised Learning, emerges as a powerful tool for analyzing large volumes of complex and unlabeled data. This study investigates the application of Unsupervised Machine Learning techniques, such as Association Rules and Clustering, to explore the socioeconomic data of UFAL students. These techniques allow the identification of frequent relationships between variables and segment students into groups with similar characteristics, enabling a more detailed analysis of each profile’s needs. The expected results include uncovering patterns that can guide more efficient resource allocation and the development of more targeted student assistance policies. Thus, this research aims to contribute to the creation of strategies that foster a more inclusive, equitable academic environment with lower dropout rate.
|
|
|
10
|
-
DEREK NIELSEN ARAÚJO ALVES
-
Sistema Embarcado Compacto para Estimativa de Desgaste de Pneus Utilizando Iluminação Ativa e Sensor Linear CCD
-
Orientador : TIAGO FIGUEIREDO VIEIRA
-
MEMBROS DA BANCA :
-
TIAGO FIGUEIREDO VIEIRA
-
BRUNO COSTA E SILVA NOGUEIRA
-
IVANOVITCH MEDEIROS DANTAS DA SILVA
-
Data: 27/06/2025
-
-
Mostrar Resumo
-
A profundidade adequada dos sulcos dos pneus é essencial para a segurança e o desempenho dos veículos, especialmente em condições de pista molhada, onde sulcos desgastados aumentam o risco de aquaplanagem e as distâncias de frenagem. Métodos tradicionais de inspeção, como medidores de profundidade, são demorados e frequente- mente imprecisos, especialmente em veículos equipados com múltiplos pneus. Este trabalho apresenta um Digital Processing System (DPS) portátil, projetado para estimar simultaneamente a profundidade de todos os sulcos dos pneus utilizando sensores lin- eares de imagem do tipo Charge-Coupled Device (CCD) e iluminação ativa. O protótipo de hardware inclui um microcontrolador, responsável pela configuração e aquisição de dados de oito sensores lineares CCD, e Light-Emitting Diodes (LEDs) verdes para ilu- minação estruturada. Os dados dos sensores são transmitidos via conexão serial para um dispositivo Android, onde um aplicativo executa rotinas de Digital Signal Process- ing (DSP) para converter leituras de voltagem (mV) em valores de profundidade dos sulcos (mm), por meio de modelos de regressão linear calibrados com amostras reais de pneus. O protótipo físico foi desenvolvido com Printed Circuit Boards (PCBs) proje- tadas sob medida e um invólucro impresso em 3D. Os resultados experimentais mostram um erro médio de estimativa de 0,115 mm, e o sistema reduz o tempo total de inspeção em 77,85% em comparação com o método tradicional. A solução proposta oferece uma alternativa portátil e não invasiva para avaliação dos sulcos dos pneus, aumentando a eficiência da inspeção, contribuindo para a aderência às normas de segurança, e mel- horando o processo de gerenciamento de frotas.
-
Mostrar Abstract
-
Adequate tire tread depth is essential for vehicle safety and performance, particularly under wet conditions, where worn treads increase hydroplaning risk and braking distances. Traditional inspection methods, such as depth gauges, are time-consuming and often inaccurate, especially for vehicles equipped with multiple tires. This work presents a portable embedded Digital Processing System (DPS) designed to estimate the depth of all tire treads simultaneously using linear Charge-Coupled Device (CCD) image sensors and active illumination. The hardware prototype includes a microcontroller, responsible for configuring and acquiring data from eight linear CCD sensors, and green Duris E2835 Light-Emitting Diodes (LEDs) for structured lighting. Sensor data are transmitted via serial connection to an Android device, where an application executes Digital Signal Processing (DSP) routines to convert voltage readings (mV) into tread depth values (mm) through linear regression models calibrated with real tire samples. The physical prototype was developed with custom-designed Printed Circuit Boards (PCBs) and a 3D-printed enclosure. Experimental results show an average estimation error of 0.115 mm, and the system reduces total inspection time by 77.85% compared to traditional methods. The proposed solution offers a portable, non-invasive alternative for tire tread estimation, enhancing inspection efficiency, contributing to compliance with safety regulations, and improving the fleet management process.
|
|
|
11
|
-
ELVIS BATISTA MARANHÃO
-
O Uso de Tecnologias de Rádio Frequência no Desenvolvimento de Soluções Computacionais para Ambientes Indoor: Análise de Conformidade e Proposta de Boas Práticas com Dispositivos Beacon e Blockchain
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
FABIO JOSE COUTINHO DA SILVA
-
PAULA TOLEDO PALOMINO
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 27/06/2025
-
-
Mostrar Resumo
-
As tecnologias digitais tornaram-se recursos indispensáveis e têm impactado significativamente as relações dos indivíduos com o mundo. Nesse contexto, considerando a promoção da autonomia da população com deficiência (PcD) e sua inclusão nas dinâmicas sociais, observa-se um crescimento expressivo no desenvolvimento de softwares voltados especificamente para esse público. Um dos principais desafios nesse cenário é assegurar que as tecnologias assistivas existentes e futuras estejam alinhadas a normas e diretrizes de acessibilidade, levando em conta as particularidades das pessoas com deficiência visual. Diante disso, este estudo tem como objetivo investigar, tanto no estado da arte quanto na prática, como as tecnologias assistivas, incluindo aquelas baseadas em tecnologias BLE, vêm sendo concebidas e desenvolvidas, com foco no ciclo de vida dos softwares destinados à acessibilidade de pessoas com deficiência visual. A pesquisa foi estruturada em dois estágios. O primeiro consistiu em um levantamento teórico para compreender como o tema tem sido tratado na literatura e o nível de maturidade das investigações na área. Em seguida, como segundo estagio, partiu-se para uma análise prática, nesse estágio prático, foi realizada uma visita técnica a um laboratório real de desenvolvimento de tecnologias assistiva, seguindo de uma inspeção documental dos artefatos gerados durante a fase de elicitação e definição de requisitos, e por fim, uma inspeção em ambiente real, de um software de apoio a pessoas com deficiência em operação, em regiões da capital Alagoana, sendo conduzida por uma avaliação de uso, por meio de um formulário estruturado, cujo projeto foi anonimizado para preservar informações sensíveis. Ambos os casos analisados estão localizados no estado de Alagoas. Essa etapa permitiu identificar as normas técnicas adotadas e as práticas voltadas à inclusão de pessoas com deficiência desde a concepção do software. Essa análise permitiu verificar o desempenho do sistema em ambiente real, identificando acertos e limitações com base nos princípios das Diretrizes de Acessibilidade para Conteúdo Web (WCAG). A partir desses achados, fundamenta-se a elaboração de um conjunto de boas práticas que favoreçam o desenvolvimento de soluções mais inclusivas, especialmente para pessoas com deficiência visual, promovendo processos de desenvolvimento ampliados, responsáveis e alinhados às melhores práticas da literatura e da indústria. Como culminação desse esforço, propõe-se uma arquitetura computacional que integra as tecnologias Beacon e Blockchain para a construção de um sistema de navegação interna seguro e acessível a pessoas com deficiência visual. Essa estrutura é flexível e extensível, com suporte a diferentes redes Blockchain, e é orientada à rastreabilidade de rotas no transporte público. De modo geral, o estudo identifica pontos críticos no entendimento do ciclo de vida de softwares assistivos, reforçando a importância de aderir a princípios de acessibilidade baseados em normas técnicas internacionalmente reconhecidas.
-
Mostrar Abstract
-
Digital technologies have become indispensable tools and have significantly impacted individuals’ relationships with the world. In this context, considering the promotion of autonomy for people with disabilities (PwD) and their inclusion in social dynamics, there has been a notable growth in the development of software specifically designed for this audience. One of the main challenges in this scenario is to ensure that current and future assistive technologies comply with accessibility standards and guidelines, taking into account the particular needs of people with visual impairments. Given this, the aim of this study is to investigate, both in terms of the state of the art and in practice, how assistive technologies — including those based on BLE (Bluetooth Low Energy) — are being conceived and developed, with a focus on the software lifecycle for accessibility solutions targeting people with visual impairments. The research was structured into two main stages. The first involved a theoretical review to understand how the topic has been addressed in the literature and to assess the maturity level of research in this field. The second stage consisted of a practical analysis, conducted in real-world development and operational environments. In this stage, a technical visit was carried out to an assistive technology development laboratory, followed by a document inspection of artifacts produced during the requirements elicitation and definition phases. This process made it possible to identify the technical standards adopted and the practices aimed at including people with disabilities from the early stages of software design. A subsequent usability evaluation was conducted through a structured questionnaire, focusing on an assistive software system in operation in areas of Maceió, the capital of Alagoas, Brazil. To protect sensitive information, the project was anonymized. Both analyzed cases are located in the state of Alagoas. This analysis enabled the assessment of the system’s performance in a real environment, identifying both strengths and limitations based on the principles of the Web Content Accessibility Guidelines (WCAG). Based on these findings, a set of best practices is proposed to support the development of more inclusive solutions, particularly for people with visual impairments, promoting broader and more responsible development processes aligned with best practices from both the academic literature and the software industry. As a final outcome, the study proposes a computational architecture that integrates Beacon and Blockchain technologies to enable a secure and accessible indoor navigation system for people with visual impairments. This architecture is designed to be flexible and extensible, supporting various Blockchain networks and enabling route traceability within public transportation systems. Overall, the study highlights critical aspects related to the understanding and implementation of assistive software lifecycles, reinforcing the importance of adhering to internationally recognized accessibility standards. Moreover, it presents practical guidelines to assist in the application of these principles across different development contexts.
|
|
|
12
|
-
JOÃO PEDRO DOS SANTOS VERÇOSA
-
Desenvolvimento de algoritmos meta-aprendizes e otimizadores para classificar plantas daninhas tóxicas ao gado em imagens de drone
-
Orientador : BRUNO ALMEIDA PIMENTEL
-
MEMBROS DA BANCA :
-
ARTHUR COSTA FALCAO TAVARES
-
BRUNO ALMEIDA PIMENTEL
-
Marcus de Barros Braga
-
TIAGO FIGUEIREDO VIEIRA
-
Data: 05/07/2025
-
-
Mostrar Resumo
-
O Brasil, maior exportador de carne bovina, enfrenta desafios na pecuária devido à presença de plantas daninhas tóxicas em pastagens de Brachiaria spp.. O uso de drones tem se mostrado uma alternativa eficiente para o monitoramento dessas plantas, mas há uma carência de estudos sobre a identificação automática dessas espécies em imagens aéreas. Este estudo propõe o uso de Redes Neurais Convolucionais (RNCs) e Meta-Aprendizagem Agnóstica (MAML) para classificar plantas daninhas tóxicas a partir de imagens de drone. Foram coletados dados nos municípios de São Miguel dos Campos e Tanque D’Arca (AL), utilizando técnicas de aumento de dados e extração de embeddings para otimizar o treinamento dos modelos. Diversos otimizadores foi avaliado, incluindo Adam, AdamW, PSO e BAT em uma RNC, enquanto o MAML foi testado com 1, 2 e 6 shots. O PSO apresentou a melhor acurácia (57,7%) e menor tempo de processamento, seguido pelo BAT (55,1%). O MAML 1-shot teve um desempenho satisfatório (53,3%), enquanto o 6-shot obteve o pior resultado (31,2%). A análise estatística confirmou diferenças importantes entre os métodos, destacando o PSO como a abordagem mais eficaz. A aplicação de técnicas de aprendizado de máquina para a identificação de plantas daninhas tóxicas pode contribuir para um manejo mais eficiente e sustentável das pastagens, reduzindo o uso de defensivos e otimizando a produtividade pecuária.
-
Mostrar Abstract
-
Brazil, the world’s largest beef exporter, faces challenges in livestock farming due to the presence of noxious weeds in Brachiaria spp. pastures. The use of drones has proven to be an efficient alternative for monitoring these plants, but there is a lack of studies on the automatic identification of these species in aerial images. This study proposes the use of Convolutional Neural Networks (CNNs) and Meta-Agnostic Machine Learning (MAML) to classify noxious weeds from drone images. Data was collected in the municipalities of São Miguel dos Campos and Tanque D’Arca (AL), using data augmentation and embedding extraction techniques to optimize the training of the models. Several optimizers were evaluated, including Adam, AdamW, PSO and BAT in an RNC, while MAML was tested with 1, 2 and 6 shots. PSO showed the best accuracy (57.7%) and shortest processing time, followed by BAT (55.1%). The 1-shot MAML performed satisfactorily (53.3%), while the 6-shot obtained the worst result (31.2%). The statistical analysis confirmed important differences between the methods, with PSO standing out as the most effective approach. Applying machine learning techniques to identify noxious weeds can contribute to more efficient and sustainable pasture management, reducing the use of pesticides and optimizing livestock productivity.
|
|
|
13
|
-
GILNEI DOMINGOS PAZ DA SILVA
-
Reconhecimento de emoções por meio de marcos faciais e características da teoria da informação
-
Orientador : ANDRE LUIZ LINS DE AQUINO
-
MEMBROS DA BANCA :
-
ANDRE LUIZ LINS DE AQUINO
-
DENIS LIMA DO ROSARIO
-
FABIANE DA SILVA QUEIROZ
-
Data: 20/08/2025
-
-
Mostrar Resumo
-
Este estudo apresenta uma abordagem abrangente para o reconhecimento automático de emoções, integrando características geométricas extraídas de marcos faciais com quantifi- cadores da teoria da informação. Utilizando uma arquitetura multientrada baseada em Redes Neurais Convolucionais (CNN), o modelo combina aprendizado visual com características computadas manualmente, incluindo Entropia de Permutação normalizada, Complexidade Es- tatística e Informação de Fisher. Esses descritores são derivados de sequências ordenadas de coordenadas de marcos faciais e visam capturar as propriedades estruturais e dinâmicas das expressões faciais. A avaliação experimental foi conduzida no conjunto de dados FER2013 usando validação cruzada K-fold. Os resultados indicam que a inclusão de características da teoria da informação melhora o desempenho da classificação, com um ganho de acurácia de 3% em relação aos modelos de base. Emoções como Felicidade e Surpresa são consisten- temente reconhecidas com alta precisão e recordação, enquanto Nojo e Medo permanecem desafiadores, provavelmente devido a padrões faciais sobrepostos e desequilíbrio de classes. A visualização nos planos Complexidade-Entropia e Fisher-Shannon confirma ainda mais o po- tencial discriminativo das características extraídas, oferecendo mapeamentos interpretáveis da dinâmica emocional. No geral, as descobertas destacam a relevância de combinar descritores artesanais e aprendizado profundo para uma caracterização emocional robusta.
-
Mostrar Abstract
-
This study presents a comprehensive approach to automatic emotion recognition by inte- grating geometric features extracted from facial landmarks with quantifiers from information theory. Using a multi-input architecture based on Convolutional Neural Networks (CNN), the model combines visual learning with manually computed features, including normalized Per- mutation Entropy, Statistical Complexity, and Fisher Information. These descriptors are de- rived from ordered sequences of facial landmark coordinates and aim to capture the structural and dynamic properties of facial expressions. Experimental evaluation was conducted on the FER2013 dataset using K-fold cross-validation. Results indicate that the inclusion of infor- mation theory features improves classification performance, with an accuracy gain of 3% over baseline models. Emotions such as Happy and Surprise are consistently recognized with high precision and recall, while Disgust and Fear remain challenging, likely due to overlapping facial patterns and class imbalance. Visualization on the Complexity–Entropy and Fisher–Shannon planes further confirms the discriminative potential of the extracted features, offering inter- pretable mappings of emotional dynamics. Overall, the findings highlight the relevance of combining handcrafted descriptors and deep learning for robust emotion characterization. Keywords: Facial Emotion Recognition, Information Theory, Causal Planes
|
|
|
14
|
-
AUDREY EMMELY RODRIGUES VASCONCELOS
-
Context-Based Association Strength: Uma Abordagem Probabilística para Análise de Viés
-
Orientador : BALDOINO FONSECA DOS SANTOS NETO
-
MEMBROS DA BANCA :
-
NATHALIA MORAES DO NASCIMENTO
-
BALDOINO FONSECA DOS SANTOS NETO
-
MARCELO COSTA OLIVEIRA
-
TIAGO FIGUEIREDO VIEIRA
-
Data: 25/08/2025
-
-
Mostrar Resumo
-
A ampla implementação de grandes modelos de linguagem (LLMs) em aplicações cruciais despertou preocupações sobre vieses discriminatórios em seus resultados. Esses vieses, frequentemente originados de conjuntos de dados de treinamento enviesados ou falhas em algoritmos, têm o potencial de reforçar estereótipos e agravar desigualdades sociais. Este estudo apresenta uma métrica probabilística inovadora chamada Context-Based Association Strength (CBAS), desenvolvida para analisar viés em LLMs. Ela busca superar as limitações de métodos convencionais que não consideram as sutilezas contextuais. A CBAS mede associações típicas por meio de uma análise contextual bidirecional, adaptando-se a diferentes arquiteturas de modelo como BERT, GPT-2 e T5, ao mesmo tempo em que integra janelas de contexto flexíveis. Experimentos conduzidos com os conjuntos de dados CrowS-Pairs e StereoSet, abrangendo atributos protegidos como raça, gênero e religião, demonstram que a CBAS supera métricas consolidadas (AUL, CAT, CPS) com uma melhoria média de 5–10% na detecção de viés, especialmente no caso de viés interseccional (atributos combinados). A métrica se mostra particularmente eficaz na identificação de padrões linguísticos sutis em estereótipos profissionais e socioeconômicos, onde abordagens convencionais falham. A CBAS representa um avanço na avaliação de viés em modelos de linguagem, oferecendo uma abordagem mais precisa e sensível ao contexto. Os resultados abrem caminho para aplicações práticas em domínios nos quais a justiça algorítmica é essencial, além de sugerirem novas direções para pesquisas futuras em outros idiomas e contextos.
-
Mostrar Abstract
-
The widespread deployment of large language models (LLMs) in crucial applications has sparked worries about discriminatory biases in their outputs. Biases such as these, frequently originating from skewed training datasets or errors in algorithms, have the potential to reinforce stereotypes and exacerbate social inequalities. This study introduces an innovative probabilistic metric called Context-Based Association Strength (CBAS) designed for analyzing bias in LLMs. It aims to overcome the shortcomings of conventional methods that fail to consider contextual subtleties. CBAS measures typical associations using bidirectional contextual analysis, which adjusts to various model frameworks like BERT, GPT-2, and T5, while integrating flexible context windows. Experiments conducted in CrowS-Pairs and StereoSet datasets, covering protected attributes such as race, gender, and religion, demonstrate that CBAS outperforms established metrics (AUL, CAT, CPS) with an average improvement of 5-10% in bias detection, particularly for intersectional bias (combined attributes). The metric proves to be especially effective in capturing subtle linguistic patterns in professional and socioeconomic stereotypes where conventional approaches fail. CBAS represents an advance in bias evaluation for language models, providing a more precise and contextually sensitive approach. The results pave the way for practical applications in domains where algorithmic fairness is crucial, while suggesting new directions for future research in other languages and contexts.
|
|
|
15
|
-
ERIC DOS SANTOS COELHO
-
Assistentes de AI podem melhorar o gerenciamento de exceções ? Uma Análise qualitativa with GitHub Copilot em Java
-
Orientador : BALDOINO FONSECA DOS SANTOS NETO
-
MEMBROS DA BANCA :
-
BALDOINO FONSECA DOS SANTOS NETO
-
LEOPOLDO MOTTA TEIXEIRA
-
MARCIO DE MEDEIROS RIBEIRO
-
Data: 26/08/2025
-
-
Mostrar Resumo
-
O tratamento de exceções é fundamental no desenvolvimento em Java, influenciando a confiabilidade e a manutenibilidade dos sistemas. Com a crescente adoção de assistentes de codificação baseados em IA, como o GitHub Copilot, torna-se essencial compreender seu impacto nas práticas dos desenvolvedores. Este estudo investiga empiricamente o impacto do GitHub Copilot nas estratégias dos desenvolvedores para lidar com exceções em Java, contrastando codificação manual com métodos assistidos pelo Copilot. Conduzimos um experimento controlado com 16 desenvolvedores, utilizando um delineamento em quadrado latino para avaliar o efeito do Copilot no tempo de tratamento de exceções, na precisão na escolha dos tipos de exceção e na qualidade geral do tratamento. Os resultados indicam que, embora o Copilot possa reduzir o esforço em determinados cenários, seu impacto na correção — medido pelo número de tentativas necessárias para alcançar um tratamento de exceção válido — foi inconsistente. O uso do Copilot levou a uma cobertura mais ampla de tratamento de exceções, com uso mais frequente de blocos try-catch, por vezes de forma excessiva. Notavelmente, o Copilot incentivou uma propagação mais explícita de exceções (aumentando de 15 para 29 ocorrências) e reduziu estratégias inadequadas, como ignorar exceções (de 21 para 10), alinhando-se mais ao contexto de desenvolvimento de bibliotecas. No entanto, os participantes frequentemente utilizaram tipos genéricos de exceção em tarefas mais complexas, ressaltando a importância contínua do julgamento humano. A efetividade do Copilot também variou conforme a experiência dos desenvolvedores e o grau de familiaridade com a ferramenta. Esses achados oferecem evidências empíricas sobre o papel da programação assistida por IA em tarefas críticas de desenvolvimento e contribuem para orientar a evolução futura dessas ferramentas.
-
Mostrar Abstract
-
Exception handling is vital in Java development, influencing system reliability and maintainability. With AI-powered coding assistants like GitHub Copilot becoming increasingly prevalent, it is essential to understand their impact on developer practices. This study empirically investigates the impact of GitHub Copilot on developers' strategies for handling exceptions in Java, contrasting manual coding with Copilot-assisted methods. We conducted a controlled experiment with 16 developers using a Latin square design to evaluate Copilot's effect on the exception handling time, accuracy in selecting exception types, and overall quality of the exception handling. Results indicates that while Copilot can reduce exception handling effort in certain scenarios, its impact on correctness — measured by the number of attempts required to reach a valid exception handling— was inconsistent. Copilot usage led to broader exception handling coverage, with more frequent use of try-catch blocks, occasionally to excess. Notably, Copilot promoted more explicit exception propagation (increasing from 15 to 29 occurrences) and reduced inadequate strategies such as ignoring exceptions (from 21 to 10), thus aligning more closely with the context of library development. However, participants often used generic exception types in more complex tasks, highlighting the continued importance of human judgment. The effectiveness of Copilot also varied depending on the developers' experience and familiarity with the tool. These findings offer empirical evidence on the role of AI-assisted programming in critical development tasks and contribute to guiding the future evolution of such tools.
|
|
|
16
|
-
MYRON DAVID LUCENA CAMPOS PEIXOTO
-
TRANSFORMANDO TAREFAS MANUAIS EM AÇÕES: AVALIANDO A EFICÁCIA DE TESTES SELENIUM GERADOS PELO GEMINI
-
Orientador : BALDOINO FONSECA DOS SANTOS NETO
-
MEMBROS DA BANCA :
-
BALDOINO FONSECA DOS SANTOS NETO
-
ERICK DE ANDRADE BARBOZA
-
MARCIO DE MEDEIROS RIBEIRO
-
WESLEY KLEWERTON GUEZ ASSUNÇÃO
-
Data: 26/08/2025
-
-
Mostrar Resumo
-
Modelos de Linguagem de Grande Escala (LLMs) introduziram abordagens inovadoras para
a automação de testes de software utilizando prompts. Apesar de inúmeros estudos sobre au
tomação de testes de software, ainda há compreensão limitada sobre a efetividade de testes
Selenium gerados por LLMs. Neste artigo, investigamos a efetividade do Gemini na produção
de testes Selenium a partir de especificações de tarefas manuais e trechos de código Hyper
Text Markup Language (HTML). Por efetividade, entendemos se os testes Selenium gerados
são executáveis e funcionalmente corretos (atendendo ao comportamento esperado especifi
cado em uma tarefa manual). Para isso, definimos oito tarefas manuais (envolvendo tarefas
relacionadas à busca, filtragem, navegação e envio de formulários) e especificamos 25 ações
para cada tarefa, utilizando código HTML extraído de 200 páginas da web. Essas tarefas re
querem a interação com diversos componentes de Interface de Usuário (UI), como caixas de
busca e caixas de seleção. Os resultados indicam que 87,5% dos testes Selenium gerados são
executáveis e 51,5% deles atendem ao comportamento esperado. Tarefas manuais que envolvem
interação com modais apresentaram os maiores desafios para a geração de testes. Embora car
rosséis e botões tenham obtido taxas de sucesso relativamente altas, ainda representaram muitos
dos ajustes pós-correção. Esses componentes — frequentemente dinâmicos ou dependentes de
contexto — estiveram entre aqueles com maior ocorrência de erros durante a geração dos testes.
-
Mostrar Abstract
-
Large Language Models (LLMs) have introduced innovative avenues for automating software
testing using prompts. Despite numerous studies on software testing automation, there remains
limited understanding on the effectiveness of LLM-generated Selenium tests. In this paper, we
investigate the effectiveness of Gemini to produce Selenium tests from manual tasks specifi
cations and HyperText Markup Language (HTML) code snippets. By effectiveness, we mean
if the generated Selenium tests are executable and functionally accurate (meeting intended be
havior specified in a manual task). To do that, we specify eight manual tasks (involving tasks
related to search, filter, navigation, and form submissions) and define 25 actions for each task,
using HTML code extracted from 200 web pages. These tasks require the interaction of diverse
User Interface (UI) components, such as search boxes and checkboxes. The results indicate
that 87.5% of the generated Selenium tests are executable and 51.5% of them meet the intended
behavior. Manual tasks involving interaction with modals presented the greatest challenges
for test generation. While carousels and buttons achieved relatively high success rates, they
still accounted for many of the post-correction fixes. These components—often dynamic or
context-dependent—were among those where most errors occurred during test generation.
|
|
|
17
|
-
NICOLLY SARMENTO JACOMELLI
-
DESENVOLVIMENTO DE UMA SOLUÇÃO INTELIGENTE DE EXTRAÇÃO SEMIAUTOMÁTICA DE DADOS A PARTIR DE EXAMES EXPORTADOS: UM ESTUDO DE CASO EM TOMOGRAFIA DE COERÊNCIA ÓPTICA DA CÓRNEA
-
Orientador : AYDANO PAMPONET MACHADO
-
MEMBROS DA BANCA :
-
AYDANO PAMPONET MACHADO
-
MARCELO COSTA OLIVEIRA
-
RENATO AMBRÓSIO JÚNIOR
-
Data: 26/08/2025
-
-
Mostrar Resumo
-
Este trabalho propõe uma solução computacional semiautomática para extração de dados clínicos estruturados a partir de exames médicos, sendo concretizado seu conceito no desenvolvimento de um estudo de caso para exames oftalmológicos no formato de imagem (JPG), mais especificamente da Tomografia de Coerência Óptica (OCT) da córnea. Motivada pela dificuldade de acesso aos dados brutos gerados por equipamentos de exames médicos, a pesquisa visa superar as limitações impostas pelo formato visual dos exames que inviabiliza a análise automática em larga escala por meio do uso de algoritmos de Reconhecimento Óptico de Caracteres (OCR) e técnicas de pré-processamento de imagem. O estudo e solução apresentada envolveu a coleta de 488 exames provenientes da clínica VisareRIO, obtidos pelo tomógrafo RTVue. Foram testados três algoritmos de OCR amplamente utilizados (Tesseract, EasyOCR e PaddleOCR), os quais demonstraram desempenho limitado frente aos desafios visuais dos exames. Diante dessas limitações, foi desenvolvido o SarmentoOCR, um algoritmo personalizado e adaptado ao exame estudado, uma vez que realizando o mapeamento das áreas de interesse, a sua extração é mais confiável. A solução foi validada com ground truth manual, alcançando acurácia média de 99,68%. Além da extração dos dados, o sistema viabiliza sua estruturação tabular, permitindo uso em pesquisas clínicas, análise estatística e modelos de aprendizado de máquina. Este estudo demonstra que soluções inteligentes e personalizadas de OCR podem viabilizar a reutilização de dados clínicos de exames visuais, promovendo avanços na oftalmologia computacional e fomentando novas possibilidades de integração entre ciência de dados e prática médica.
-
Mostrar Abstract
-
This work introduces a semi-automatic computational approach to protect structured clinical data from medical examinations. Its concept is demonstrated through a case study of ophthalmological tests in JPG format, specifically corneal Optical Coherence Tomography (OCT). Motivated by the challenge of accessing raw data generated by medical examination equipment, the research seeks to overcome the limitations of the visual format of these tests, which restricts large-scale automatic analysis using Optical Character Recognition (OCR) algorithms and image preprocessing methods. The study and solution involve collecting 488 examinations from the VisareRIO clinic, which were obtained using the RTVue CT scanner. Three popular OCR algorithms (Tesseract, EasyOCR, and PaddleOCR) were tested; all improved limited performance when faced with the visual challenges of the examinations. Due to these limitations, SarmentoOCR was developed—a customized algorithm tailored to the trained exam. As it maps specific areas of interest, its protection is more dependable. The. The solution was validated against a Ground Truth Manual, reaching an average accuracy of 99.68%. Besides data reduction, the system enables tabular organization, making it useful for clinical research, statistical analysis, and machine learning models. This study demonstrates that intelligent, customized OCR solutions can facilitate the reuse of clinical data from visual exams, thereby encouraging advancements in computational ophthalmology and opening new opportunities for integrating data science and medical practice.
|
|
|
18
|
-
VICENTE JULIAO MARQUES RODRIGUES BARROS
-
Equidade no aprendizado de máquina aplicado a dados públicos: um estudo com as bases do governo brasileiro
-
Orientador : BALDOINO FONSECA DOS SANTOS NETO
-
MEMBROS DA BANCA :
-
BALDOINO FONSECA DOS SANTOS NETO
-
LEOPOLDO MOTTA TEIXEIRA
-
MARCELO COSTA OLIVEIRA
-
TIAGO FIGUEIREDO VIEIRA
-
Data: 29/09/2025
-
-
Mostrar Resumo
-
A aplicação de tecnologias de machine learning na formulação de políticas públicas representa um avanço significativo na gestão governamental contemporânea, mas levanta questões críticas relacionadas à equidade, transparência e justiça algorítmica. O presente estudo investiga a presença de vieses sistêmicos nos dados e modelos preditivos aplicados em cenários de políticas públicas brasileiras por meio de uma auditoria abrangente utilizando dados governamentais abertos. Foi desenvolvida uma metodologia estruturada em pipeline que abrange dez cenários sociais em áreas críticas como educação, saúde, trabalho e tecnologia, utilizando dados de cinco órgãos do governo brasileiro (IBGE, MS, MEC, INEP, CETIC.BR). Foram aplicados oito algoritmos de classificação binária supervisionada, e o Gradient Boosting foi selecionado como aquele com melhor desempenho, seguido de uma auditoria sistemática através do kit de ferramentas AEQUITAS utilizando três métricas fundamentais de justiça: Paridade Demográfica, Igualdade de Oportunidades, e Igualdade Preditiva. Os resultados indicam a presença de padrões consistentes de disparidade entre grupos demográficos sensíveis, com freqüentes violações dos limites de disparidade estabelecidos, particularmente nas métricas de Paridade Demográfica e Igualdade Preditiva. Os grupos minoritários, incluindo negros, amarelos e indígenas, apresentam taxas desproporcionais de predições positivas ou negativas em comparação com o grupo
de referência composto por Pardos, mostrando riscos concretos de discriminação algorítmica e perpetuação de desigualdades históricas. A métrica Igualdade de Oportunidades sugere melhor equidade para o atributo sensível ao gênero em nove dos dez cenários analisados. Esta pesquisa contribui significativamente para o campo da Inteligência Artificial ética e responsável no contexto brasileiro, fornecer evidências empíricas da presença de vieses sistemáticos nos dados e modelos governamentais e estabelecer um protocolo replicável para auditoria de equidade em sistemas automatizados de apoio à decisão. Os resultados demonstram a urgente necessidade da implementação de práticas de auditoria contínua no ciclo de vida dos projetos de Machine Learning do setor público, propondo diretrizes para o desenvolvimento de soluções mais justas e equitativas alinhadas com princípios democráticos e direitos fundamentais.
-
Mostrar Abstract
-
The application of machine learning technologies in public policy formulation represents a significant advance in contemporary government management, but raises critical issues related to equity, transparency, and algorithmic justice. The present study investigates the presence of systemic biases in data and predictive models applied in Brazilian public policy scenarios through a comprehensive audit using open government data. A pipeline-structured methodology was developed that covers ten social scenarios in critical areas such as education, health, work, and technology, using data from five Brazilian government agencies (IBGE, MS, MEC, INEP, CETIC.BR). Eight algorithms of supervised binary classification were applied, and the Gradient Boosting was selected as the one with the best performance, followed by a systematic audit through the AEQUITAS toolkit using three fundamental fairness metrics: Demographic Parity, Equal Opportunity, and Predictive Equality. The results indicate the presence of consistent patterns of disparity among sensitive demographic groups, with frequent violations of established disparity limits, particularly in the Demographic Parity and Predictive Equality metrics. Minority groups, including black, yellow, and indigenous people, present disproportionate rates of positive or negative predictions compared to the reference group composed of Pardos, showing concrete risks of algorithmic discrimination and perpetuation of historical inequalities. The Equal Opportunity metric suggests better equity for the gender sensitive attribute in nine of the ten scenarios analyzed.
This research contributes significantly to the field of ethical and responsible Artificial Intelligence in the Brazilian context, providing empirical evidence of the presence of systematic biases in government data and models and establishing a replicable protocol for fairness audit in automated decision support systems. The findings demonstrate the urgent need for the implementation of continuous audit practices in the life cycle of Machine Learning projects in the public sector, proposing guidelines for the development of more just and equitable solutions aligned with democratic principles and fundamental rights
|
|
|
19
|
-
GILSON FRANCISCO DE OLIVEIRA CASTRO
-
Avaliação da Alocação de Recursos nos Centros Integrados de Segurança Pública de Alagoas: Uma Estratégia Baseada na Análise Envoltória de Dados Inversa
-
Orientador : BRUNO COSTA E SILVA NOGUEIRA
-
MEMBROS DA BANCA :
-
BRUNO COSTA E SILVA NOGUEIRA
-
EVANDRO DE BARROS COSTA
-
RIAN GABRIEL SANTOS PINHEIRO
-
THYAGO CELSO CAVALCANTE NEPOMUCENO
-
Data: 30/09/2025
-
-
Mostrar Resumo
-
A segurança pública em Alagoas enfrenta desafios devido a recursos limitados, diversidade de crimes e alta demanda por serviços policiais. Este trabalho propõe um arcabouço metodológico que integra a Análise Envoltória de Dados (DEA) e a DEA Inversa (InvDEA) para avaliar 32 Centros Integrados de Segurança Pública (CISPs) e estimar os aumentos mínimos de efetivo e viaturas necessários para que unidades ineficientes possam atender a demandas adicionais e melhorar seus resultados. O InvDEA foi aplicado exclusivamente às unidades ineficientes, utilizando as eficientes como referência, assegurando estabilidade na fronteira de comparação. A metodologia foi aplicada em três cenários distintos: no primeiro cenário, focado na Polícia Civil (PC), considerou-se um aumento de 10 % nos inquéritos concluídos para avaliar a capacidade das unidades em absorver maior demanda investigativa; os resultados indicaram necessidade de 1 a 6 oficiais civis adicionais e até 1 viatura por unidade. No segundo cenário, voltado à Polícia Militar (PM), considerou-se aumento de 10% nas ocorrências atendidas para avaliar a capacidade operacional de resposta; os resultados mostraram necessidade de 3 a 46 oficiais militares adicionais, mantendo praticamente inalterada a frota de viaturas. No terceiro cenário, todos os recursos de entrada foram ampliados em 10 % para avaliar o ganho potencial de ambos os subsistemas de forma conjunta; os resultados indicaram aumento de até 67 inquéritos concluídos pela PC e 61 ocorrências atendidas pela PM,
enquanto algumas unidades não necessitaram de reforço adicional. Os resultados evidenciam heterogeneidade entre os CISPs: algumas unidades necessitam de aumentos expressivos de pessoal, enquanto outras mantêm ou ampliam seus resultados com ajustes mínimos. A abordagem fornece subsídios quantitativos para realocação de efetivo, definição de prioridades de investimento e formulação de políticas públicas baseadas em evidências, promovendo gestão da segurança pública mais orientada a resultados.
-
Mostrar Abstract
-
Public safety in Alagoas faces challenges due to limited resources, diverse crime patterns, and high demand for police services. This paper proposes a methodological framework that integrates Data Envelopment Analysis (DEA) and Inverse DEA (InvDEA) to evaluate 32 Integrated Public Safety Centers (CISPs) and estimate the minimum increases in personnel and vehicles required for inefficient units to meet additional demands and improve their performance. InvDEA was applied exclusively to inefficient units, using efficient units as a reference, ensuring stability at the comparison frontier. The methodology was applied to three distinct scenarios: in the first scenario, focused on the Civil Police (PC), a 10% increase in completed investigations was considered to assess the units' capacity to absorb increased investigative demand; the results indicated a need for 1 to 6 additional civilian officers and up to 1 vehicle per unit. In the second scenario, focused on the Military Police (PM), a 10% increase in incidents responded to was considered to assess operational response capacity; the results showed a need for 3 to 46 additional military officers, while maintaining the vehicle fleet virtually unchanged. In the third scenario, all input resources were increased by 10% to assess the potential gains for both subsystems together; the results indicated an increase of up to 67 investigations concluded by the Military Police (PC) and 61 incidents responded to by the PM, while some units did not require additional reinforcement. The results highlight heterogeneity among CISPs: some units require significant staffing increases, while others maintain or expand their results with minimal adjustments. The approach provides quantitative support for reallocating personnel, defining investment priorities, and formulating evidence-based public policies, promoting more results-oriented public security management.
|
|
|
20
|
-
LARYSSA RIBEIRO OLIVEIRA
-
Engenharia de Requisitos em Governo Eletrônico: Contribuições, Atributos de Qualidade e Desafios da Literatura e da Prática
-
Orientador : THIAGO DAMASCENO CORDEIRO
-
MEMBROS DA BANCA :
-
THIAGO DAMASCENO CORDEIRO
-
BRUNO ALMEIDA PIMENTEL
-
RAFAEL ALVES PAES DE OLIVEIRA
-
RODRIGO LISBÔA PEREIRA
-
Data: 29/10/2025
-
-
Mostrar Resumo
-
-
Mostrar Abstract
-
This research investigates the contributions of Requirements Engineering (RE) in the context of developing electronic government (e-government) portals, as well as the alignment between theory and practice. A literature review identified existing contributions, approaches, and frameworks on the topic; however, gaps remain regarding how these approaches are effectively applied in development projects, which are characterized by organizational complexity, diverse users, legal requirements, and demands for transparency and accessibility. To address this issue, a Systematic Mapping Study (SMS) was conducted, covering the period from 2013 to 2024, aimed at answering the following research questions: (i) what RE contributions have emerged to support the development of government portals; (ii) which quality attributes have been considered in this process; and (iii) what challenges have been reported in the analyzed studies. Additionally, an empirical investigation was carried out with requirements analysts, user experience teams, and development teams, through an online questionnaire (assessing knowledge of RE artifacts and evaluating them across different criteria), and through semi-structured interviews (exploring practical challenges, work processes, and documentation of requirements). The triangulation between literature and practice enabled the identification of convergences, divergences, and gaps between what is proposed by academia and what is experienced by software teams working on e-government projects. The results contribute in three dimensions: (i) providing an updated synthesis of the state of the art in Requirements Engineering applied to e-government; (ii) producing multidimensional empirical evidence by considering the perceptions of different professional roles; and (iii) bridging theory and practice by revealing gaps and proposing recommendations to improve the use of requirements in the development of e-government portals.
|
|
|
21
|
-
THALITA DOS SANTOS REIS
-
Avaliação Empírica e Computacional do Uso de Práticas da Engenharia de Software Verde no Ciclo de Vida de Desenvolvimento de Sistemas de Software
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
RAFAEL DIAS ARAÚJO
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 21/11/2025
-
-
Mostrar Resumo
-
O crescimento do setor de Tecnologia da Informação e Comunicação tem ampliado os impactos ambientais decorrentes do elevado consumo de energia e da rápida obsolescência tecnológica. Nesse cenário, a Engenharia de Software Verde surge como uma abordagem essencial para incorporar princípios de sustentabilidade ao ciclo de vida do software, promovendo a eficiência energética, a otimização de recursos e a responsabilidade ambiental. Contudo, persiste uma lacuna significativa entre as recomendações teóricas e sua efetiva aplicação na prática industrial. Este estudo tem como objetivo investigar evidências da adoção de práticas sustentáveis no desenvolvimento de software, analisando em quais fases do ciclo de vida essas práticas são incorporadas e qual o nível de maturidade organizacional na aplicação dos princípios da Engenharia de Software Verde. A pesquisa foi conduzida em duas etapas complementares: a primeira consistiu em uma revisão da literatura voltada à identificação de práticas, desafios e abordagens relacionadas à sustentabilidade, com base nas boas práticas propostas pela Green Software Foundation; e a segunda envolveu um estudo empírico com 102 profissionais da indústria de software e entrevistas com 29 especialistas, sustentado em uma abordagem de métodos mistos, quantitativa e qualitativa. Foram realizadas análises estatísticas e uma análise qualitativa temática para compreender as percepções sobre barreiras, benefícios e estratégias de adoção. Os resultados indicam que a implementação de práticas sustentáveis ainda ocorre de forma fragmentada e predominantemente reativa, concentrando-se nas fases de desenvolvimento e manutenção, enquanto as etapas iniciais, como a elicitação de requisitos e o projeto, permanecem pouco exploradas. Observou-se também baixa padronização de métricas e desigualdade nos níveis de maturidade entre as organizações. A análise qualitativa revelou que a sustentabilidade é reconhecida como um valor organizacional emergente, embora ainda dependa fortemente de iniciativas individuais. A partir desses achados, o trabalho propõe um conjunto de boas práticas integradas ao ciclo de vida do software, alinhadas ao SWEBOK, com o propósito de orientar decisões técnicas e gerenciais que promovam, de forma estruturada e contínua, a sustentabilidade no contexto da engenharia de software.
-
Mostrar Abstract
-
The growth of the Information and Communication Technology sector has increased environmental impacts, driven by high energy consumption and rapid technological obsolescence. In this scenario, Green Software Engineering emerges as an essential approach for incorporating sustainability principles into the software lifecycle, promoting energy efficiency, resource optimization, and environmental responsibility. However, a significant gap persists between theoretical recommendations and their practical application in industrial practice. This study aims to investigate evidence of the adoption of sustainable practices in software development, analyzing at which lifecycle phases these practices are incorporated and the level of organizational maturity in applying Green Software Engineering principles. The research was conducted in two complementary stages: the first consisted of a literature review aimed at identifying practices, challenges, and approaches related to sustainability, based on the best practices proposed by the Green Software Foundation; and the second involved an empirical study with 102 software industry professionals and interviews with 29 experts, supported by a mixed-methods, quantitative, and qualitative approach. Statistical analyses and a thematic qualitative analysis were conducted to understand perceptions about barriers, benefits, and adoption strategies. The results indicate that sustainable practices are still implemented in a fragmented, predominantly reactive manner, focusing on the development and maintenance phases. At the same time, the initial stages, such as requirements elicitation and design, remain underexplored. Low standardization of metrics and uneven maturity levels across organizations were also observed. The qualitative analysis revealed that sustainability is recognized as an emerging organizational value, although it still relies heavily on individual initiatives. Based on these findings, the paper proposes a set of best practices integrated into the software lifecycle, aligned with the SWEBOK, to guide technical and managerial decisions that promote sustainability in a structured and continuous manner in the context of software engineering.
|
|
|
22
|
-
EDUARDO ANTÔNIO DE LUCENA LISBÔA
-
Análise Comparativa de Técnicas de Amostragem para Classificação em Dados Desbalanceados: Um Guia Referencial
-
Orientador : FABIANE DA SILVA QUEIROZ
-
MEMBROS DA BANCA :
-
ANDRE LUIZ LINS DE AQUINO
-
FABIANE DA SILVA QUEIROZ
-
TACITO TRINDADE DE ARAUJO TIBURTINO NEVES
-
Data: 25/11/2025
-
-
Mostrar Resumo
-
O problema do desbalanceamento de classes exige o uso de técnicas de amostragem para reequilibrar os dados de treinamento, mas a revisão sistemática da literatura revelou uma lacuna crítica: a falta de estudos que avaliem a generalização dos algoritmos em bases de dados com diferentes representações e temas, limitando a reprodutibilidade dos achados. Este trabalho propõe preencher essa lacuna por meio de um protocolo de avaliação generalizado, categorizando as bases de dados por Índice de Desbalanceamento, Número de Amostras e Tipo de Dado, onde os atributos de imagem foram extraídos utilizando SIFT e Descritores de Haralick, e os dados tabulares tiveram a redundância reduzida pela Correlação de \textit{Pearson} (descarte de $\rho > 0.95$). Os experimentos compararam o desempenho da amostragem em classificadores diversos, incluindo KNN, SVM, Random Forest e a rede neural \textit{MobileNetV2}, cuja escolha otimiza o equilíbrio entre precisão e custo computacional, utilizando nela duas funções de perda distintas, a \textit{Cross Entropy Loss} e a \textit{Focal Loss}. Os resultados, que foram formalmente ranqueados considerando o desvio padrão das métricas para validar a robustez, confirmaram que a técnica ótima é contingente à interação entre as características da base e o classificador. O produto final é um Guia Referencial que mapeia as combinações mais eficazes, transformando a escolha da amostragem em um processo científico e generalizável.
-
Mostrar Abstract
-
The primary objective of this work is to investigate and compare different machine learning techniques for classifying imbalanced data. Class imbalance, characterized by the disparity in the distribution of examples among the classes in a dataset, poses a significant challenge for building accurate and reliable classification models. Through empirical experiments, this work aims to identify the most suitable algorithms for different types of problems, analyze the impact of various parameters and algorithm configurations on performance, and assess the generalization of models across different datasets. Additionally, new approaches or improvements to existing techniques are proposed to optimize performance in classifying imbalanced data. The results obtained in this study contribute to advancing the field of machine learning, providing valuable insights for the scientific community and professionals working with imbalanced data. By comparing different techniques and analyzing factors that influence model performance, this work helps in choosing the best strategies for addressing class imbalance in various applications.
|
|
|
23
|
-
WARLEY VITAL BARBOSA
-
Verificação de Parentesco com Estratégia de Amostragem e Perda Contrastiva
-
Orientador : TIAGO FIGUEIREDO VIEIRA
-
MEMBROS DA BANCA :
-
TIAGO FIGUEIREDO VIEIRA
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
ALLAN DE MEDEIROS MARTINS
-
Data: 28/11/2025
-
-
Mostrar Resumo
-
A Verificação Facial de Parentesco busca determinar se dois indivíduos são biologicamente relacionados baseando-se apenas em suas características faciais, uma tarefa complicada por pistas hereditárias sutis, alta variação intra e interclasse, e conjuntos de dados limitados e desbalanceados. Esta dissertação propõe uma estrutura que combina uma estratégia de amostragem customizada de lotes com Perda Contrastiva Difícil (Hard Contrastive Loss -- HCL) dentro de um paradigma de aprendizado contrastivo supervisionado. A abordagem utiliza redes neurais profundas e um backbone AdaFace pré-treinado para extrair representações faciais, enquanto o amostrador personalizado garante lotes de treinamento diversos e informativos priorizando famílias únicas, relacionamentos sub-representados e pares positivos desafiadores. O HCL foca o aprendizado nas amostras negativas mais difíceis, melhorando a capacidade do modelo de distinguir pistas de parentesco sutis. Experimentos no conjunto de dados FIW demonstram que esta combinação alcança resultados estado-da-arte: 82,2% de precisão média na verificação pareada, 86,5% na verificação tri-sujeito, e desempenho competitivo em tarefas de busca e recuperação. Estudos de ablação revelam que o HCL é mais efetivo quando pareado com amostragem diversa de lotes, e que tanto amostragem aleatória quanto balanceada produzem resultados robustos. O desempenho ótimo é obtido com valores de temperatura mais baixos (τ ≈ 0, 3) e ativação precoce do HCL. Este trabalho fornece novas perspectivas sobre a interação entre design de função de perda e composição de lotes, oferecendo diretrizes para futuros estudos de verificação de parentesco. Todo o código está disponível online.
-
Mostrar Abstract
-
Facial Kinship Verification (FKV) seeks to determine whether two individuals are biologically related based solely on their facial features, a task complicated by subtle hereditary cues, high intra- and interclass variation, and limited, imbalanced datasets. This thesis proposes a framework that combines a custom batch sampling strategy with Hard Contrastive Loss (HCL) within a supervised contrastive learning paradigm. The approach leverages deep neural networks and a pre-trained AdaFace backbone to extract facial representations, while the custom sampler ensures diverse and informative training batches by prioritizing unique families, underrepresented relationships, and challenging positive pairs. HCL focuses learning on the hardest negative samples, enhancing the model’s ability to distinguish subtle kinship cues. Experiments on the Families in the Wild (FIW) dataset demonstrate that this combination achieves state-of-the-art results: 82.2% average accuracy on pairwise verification (0.17 percentage points over FaCoRNet baseline at 82.0%), 86.5% on tri-subject verification (1.4 percentage points over FaCoRNet baseline at 85.1%), and competitive performance on search and retrieval tasks with 7.9 percentage points improvement in Rank@5. Ablation studies reveal that HCL is most effective when paired with diverse batch sampling, and that both random and balanced sampling yield strong results. Optimal performance is obtained with lower temperature values (τ ≈ 0.3) and early HCL activation. This work provides new insights into the interplay between loss function design and batch composition, offering guidelines for future kinship verification studies. All code is available online.
|
|
|
24
|
-
LUCAS MENDES MASSA
-
Desmembrando Representações com Autoencoders Variacionais para Análise Facial
-
Orientador : TIAGO FIGUEIREDO VIEIRA
-
MEMBROS DA BANCA :
-
ALLAN DE MEDEIROS MARTINS
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
TIAGO FIGUEIREDO VIEIRA
-
Data: 28/11/2025
-
-
Mostrar Resumo
-
Este trabalho investiga o aprendizado de representações disentrelançadas para análise de imagens faciais utilizando um framework de Autoencoder Variacional. Baseando-se no Disentangled VAE (DisVAE), o modelo proposto integra perdas de correlação e classificação inversa, cabeças supervisionadas duplas para identidade e expressão, e uma estratégia de treinamento em fases para aprimorar a independência dos subespaços. Experimentos com os conjuntos CK+48 e Oulu-CASIA mostram que a configuração em fases alcança o melhor desempenho de disentrelançamento, reduzindo o vazamento semântico e preservando a qualidade de reconstrução e a interpolação controlável de expressões. Os resultados demonstram que a combinação de regularização baseada em correlação e otimização progressiva melhora a interpretabilidade e a estabilidade das representações latentes em modelos VAE.
-
Mostrar Abstract
-
|
|
|
25
|
-
ADILSON PEIXOTO DA SILVA
-
Evasão Escolar nos Anos Finais do Ensino Fundamental: Testando a Hipótese da Inflexibilidade Pedagógica como Fator de Risco
-
Orientador : IG IBERT BITTENCOURT SANTANA PINTO
-
MEMBROS DA BANCA :
-
IG IBERT BITTENCOURT SANTANA PINTO
-
RANILSON OSCAR ARAUJO PAIVA
-
LEOGILDO ALVES FREIRES
-
GABRIEL FORTES CAVALCANTI DE MACÊDO
-
Data: 05/12/2025
-
-
Mostrar Resumo
-
A presente proposta de dissertação de mestrado investiga a evasão escolar nos anos finais do ensino fundamental, com foco particular na inflexibilidade pedagógica como fator de risco. A evasão escolar é um fenômeno complexo e tem impacto em todo o mundo, no brasil os desafios enfrentados especialmente no ensino fundamental são enormes, onde os estudantes estão iniciando sua formação em busca de desenvolvimento individual e coletivo, comprometendo toda uma trajetória educacional e afeta todo o desenvolvimento socioeconômico. Esse estudo tem como objetivo analisar a dimensão estudante-profissionais da escola e a inflexibilidade pedagógica como fatores de riscos a evasão escolar nos anos finais do ensino fundamental. Neste contexto examinar como as práticas pedagógicas inflexíveis podem contribuir para desistência dos estudantes e desenvolver intervenções para diminuir esse problema. A pesquisa será realizada em escolas públicas municipais de São Sebastião, Alagoas. Será realizado um estudo com abordagem de pesquisa mista. Uma abordagem da investigação que combina ou associa as formas qualitativa e quantitativa. O instrumento de avaliação selecionado para abordar o estudo da inflexibilidade pedagógica, dentro da dimensão estudante-profissionais da escola, será o Instrumento de Avaliação dos Fatores Relacionais de Risco à Evasão Escolar-Revisado (IAFREE-R), através de questionários a partir da média dos 36 itens do instrumento que fornece um score e o questionário socioeconômico com 14 perguntas, a fim de obter dados que visualizem práticas pedagógicas e risco de evasão. Os dados coletados em três momentos distintos serão utilizados para identificar as correlações e possíveis causalidades entre inflexibilidade pedagógica e evasão escolar. De acordo com essas informações e percepções, será desenvolvido um plano de intervenção com estratégias para diminuir os riscos de evasão escolar. As intervenções serão monitoradas e avaliadas continuamente, utilizando os indicadores encontrados na pesquisa, junto com os relatórios serão utilizados para fazer ajustes nas estratégias quando necessário, garantindo um processo de melhorias contínua
-
Mostrar Abstract
-
This master's dissertation proposal investigates truancy in the final years of elementary school, with a particular focus on pedagogical inflexibility as a risk factor. School dropout is a complex phenomenon and has an impact all over the world. In Brazil, the challenges faced, especially in elementary school, are enormous, where students are beginning their education in search of individual and collective development, compromising an entire educational trajectory and affecting socio-economic development. This study aims to analyze the student-professional dimension of the school and pedagogical inflexibility as risk factors for school dropout in the final years of elementary school. In this context, to examine how inflexible pedagogical practices can contribute to student dropout and to develop interventions to reduce this problem. The research will be carried out in municipal public schools in São Sebastião, Alagoas. The study will use a mixed research approach. A research approach that combines or associates qualitative and quantitative forms. The evaluation instrument selected to approach the study of pedagogical inflexibility, within the student-professional dimension of the school, will be the Instrument for the Assessment of Relational Risk Factors for School Dropout-Revised (IAFREE-R), through questionnaires based on the average of the instrument's 36 items that provide a score and the socioeconomic questionnaire with 14 questions, in order to obtain data that visualizes pedagogical practices and the risk of dropout. The data collected at three different times will be used to identify correlations and possible causalities between pedagogical inflexibility and school dropout. Based on this information and insights, an intervention plan will be developed with strategies to reduce the risk of school dropout. The interventions will be monitored and evaluated continuously, using the indicators found in the research, together with the reports will be used to make adjustments to the strategies when necessary, ensuring a process of continuous improvement
|
|
|
26
|
-
LUANA JÚLIA NUNES FERREIRA
-
Projeto e implementação de um arcabouço de gêmeo digital de código aberto para integração de sistemas industriais em tempo real.
-
Orientador : LEANDRO DIAS DA SILVA
-
MEMBROS DA BANCA :
-
ALVARO ALVARES DE CARVALHO CESAR SOBRINHO
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
LEANDRO DIAS DA SILVA
-
JOSÉ REINALDO SILVA
-
ALLAN DE MEDEIROS MARTINS
-
Data: 05/12/2025
-
-
Mostrar Resumo
-
Esta dissertação apresenta um framework de gêmeo digital que conecta um CLP virtual programado no CODESYS a uma visualização baseada no Godot via TCP/IP, para troca de dados e renderização em tempo real. O pipeline é validado inicialmente em um robô cartesiano cinemático para verificar aquisição, marcação temporal, consistência de unidades e mapeamento de coordenadas por meio de traços 2D e reconstrução de trajetória 3D. A mesma camada de comunicação e organização de cena é então reutilizada em um processo de tanques acoplados, no qual os níveis calculados no CLP acionam as posições dos discos superior e inferior no Godot. Os resultados mostram concordância qualitativa em regime permanente e revelam uma defasagem temporal transitória entre os ambientes, ao mesmo tempo que demonstram reuso entre domínios com adaptações mínimas de recursos e de mapeamento de eixos. A arquitetura fornece uma base aberta e adaptável para extensões futuras, incluindo auditorias de temporização e experimentos em malha fechada.
-
Mostrar Abstract
-
This dissertation presents a digital-twin framework that links a virtual PLC programmed in CODESYS to a Godot-based visualization via TCP/IP for real-time data exchange and rendering. The pipeline is first validated on a kinematic Cartesian robot to verify acquisition, time stamping, unit consistency, and coordinate mapping through 2D traces and 3D path reconstruction. The same communication layer and scene organization are then reused for a coupled-tanks process, where PLC-computed levels drive upper/lower disk positions in Godot. Results show qualitative agreement in steady-state behavior and reveal a transient timing offset between environments, while demonstrating cross-domain reuse with minor adaptation of assets and axis mapping. The architecture provides an open, adaptable basis for future extensions, including timing audits and closed-loop experiments.
|
|
|
27
|
-
NARCISO BEZERRA DE VASCONCELOS
-
Desafios e estratégias no combate ao abandono e evasão escolar: uma análise da influência familiar no contexto dos anos finais do ensino fundamental
-
Orientador : IG IBERT BITTENCOURT SANTANA PINTO
-
MEMBROS DA BANCA :
-
IG IBERT BITTENCOURT SANTANA PINTO
-
RANILSON OSCAR ARAUJO PAIVA
-
LEOGILDO ALVES FREIRES
-
GABRIEL FORTES CAVALCANTI DE MACÊDO
-
Data: 05/12/2025
-
-
Mostrar Resumo
-
A educação é um direito fundamental no Brasil e essencial para o desenvolvimento humano e social. Contudo, o abandono e a evasão escolar nos anos finais do ensino fundamental persistem, sendo influenciados por fatores internos e externos às escolas. A pesquisa proposta enfoca a importância das famílias na vida escolar dos estudantes. Para enfrentar a evasão escolar, é necessário adotar uma abordagem integrada que inclua políticas públicas inclusivas e investimentos em infraestrutura educacional, com o objetivo de promover um ambiente justo para todos os estudantes, conforme estabelecido pela Constituição de 1988 do Brasil. O estudo se baseia em teorias como a Teoria do Capital Humano, que considera a educação um investimento, e a Teoria da Relevância Curricular, que defende a criação de currículos pertinentes para reduzir a evasão. Além disso, aborda disparidades socioeconômicas e a importância do apoio emocional e social, com base nas Teorias da Desigualdade Social e da Resiliência. No estudo realizado em São Sebastião, Alagoas, o Instrumento de Avaliação dos Fatores Relacionais de Risco à Evasão Escolar-Revisado (IAFREE-R) foi utilizado para analisar os fatores de evasão, com foco na interação entre estudantes e suas famílias. A análise inicial, realizada com 136 estudantes dos anos finais, revelou disparidades significativas por gênero e raça/etnia, indicando a necessidade de abordagens diferenciadas para criar um ambiente escolar mais inclusivo. Investimentos contínuos em infraestrutura e programas de apoio são cruciais para mitigar riscos e garantir a permanência dos estudantes na escola. Um compromisso coletivo com a equidade e a justiça social é fundamental para implementar políticas que enfrentem as causas profundas da evasão escolar.
-
Mostrar Abstract
-
Education is a fundamental right in Brazil and essential for human and social development. However, dropout and school evasion in the final years of elementary education persist, influenced by both internal and external factors to the schools. The proposed research focuses on the importance of families in the students' school lives. To address school evasion, it is necessary to adopt an integrated approach that includes inclusive public policies and investments in educational infrastructure, aiming to create a fair environment for all students, as established by the 1988 Brazilian Constitution. The study is based on theories such as Human Capital Theory, which views education as an investment, and Curriculum Relevance Theory, which advocates for the development of relevant curricula to reduce evasion. Additionally, it addresses socioeconomic disparities and the importance of emotional and social support, drawing on Social Inequality Theory and Resilience Theory. In the study conducted in São Sebastião, Alagoas, the Risk Factors Relational Assessment Instrument for School Evasion-Revised (IAFREE-R) was used to analyze the factors of evasion, focusing on the interaction between students and their families. The initial analysis, conducted with 136 students from the final years, revealed significant disparities by gender and race/ethnicity, indicating the need for differentiated approaches to create a more inclusive school environment. Ongoing investments in infrastructure and support programs are crucial to mitigate risks and ensure students' retention in school. A collective commitment to equity and social justice is essential for implementing policies that address the root causes of school evasion
|
|
|
28
|
-
JULIANA SIMON PETRUCELI
-
Aplicação de Modelos de Linguagem de Grande Escala na Estruturação de Laudos Tomográficos de Tórax
-
Orientador : MARCELO COSTA OLIVEIRA
-
MEMBROS DA BANCA :
-
MARCELO COSTA OLIVEIRA
-
PAULO MAZZONCINI DE AZEVEDO MARQUES
-
THALES MIRANDA DE ALMEIDA VIEIRA
-
Data: 05/12/2025
-
-
Mostrar Resumo
-
Laudos radiológicos, tradicionalmente redigidos em texto livre, oferecem flexibilidade, mas apresentam problemas de ambiguidade e inconsistência que podem comprometer a qualidade do atendimento ao paciente e a eficiência do sistema de saúde. Laudos estruturados são reconhecidos por melhorar a clareza e a comparabilidade das informações; no entanto, sua adoção enfrenta resistência devido à ausência de ferramentas automatizadas que preservem a flexibilidade necessária em diagnósticos complexos. Embora Modelos de Linguagem de Grande Escala (LLMs) tenham avançado no processamento de textos médicos, existe uma lacuna significativa em sua aplicação para a estruturação automática de laudos radiológicos em português. Este trabalho teve como objetivo avaliar a eficácia de Modelos de Linguagem de Grande Escala (LLMs) na estruturação de laudos tomográficos de tórax em português, utilizando um template único adaptável. A metodologia foi organizada em seis etapas: (1) preparação dos dados, com critérios de inclusão e exclusão; (2) desenvolvimento de um template estruturado em formato JSON; (3) engenharia de prompts, com aplicação de few-shot learning; (4) avaliação preliminar do modelo LLaMA 3.3 com diferentes combinações de parâmetros de decodificação; (5) validação qualitativa conduzida por 12 radiologistas, considerando fidelidade ao laudo original, clareza do texto e estrutura/organização; e (6) validação quantitativa, baseada na construção de uma referência manual para comparação com métricas automáticas. A eficácia dos modelos foi mensurada por análises quantitativas, empregando precisão, recall e F1-score, possibilitando comparações com estudos prévios. Além disso, a abordagem proposta avançou o estado da arte ao explorar o uso de ferramentas de Processamento de Linguagem Natural (PLN) em português, um campo ainda pouco explorado. Assim, este trabalho estabeleceu uma referência inovadora para a aplicação de LLMs na medicina diagnóstica, contribuindo diretamente para o aprimoramento dos cuidados ao paciente.
-
Mostrar Abstract
-
Radiology reports, traditionally written in free text, offer flexibility but often present issues of ambiguity and inconsistency that may compromise the quality of patient care and the efficiency of healthcare systems. Structured reports are recognized for improving the clarity and comparability of information; however, their adoption faces resistance due to the lack of automated tools capable of preserving the flexibility required in complex diagnostic scenarios. Although Large Language Models (LLMs) have advanced in the processing of medical texts, there remains a significant gap in their application to the automatic structuring of radiology reports in Portuguese. This study aimed to evaluate the effectiveness of Large Language Models (LLMs) in structuring Portuguese thoracic CT reports using a single adaptive template. The methodology was organized into six stages: (1) data preparation, including inclusion and exclusion criteria; (2) development of a structured template in JSON format; (3) prompt engineering with the application of few-shot learning; (4) preliminary evaluation of the LLaMA 3.3 model with different combinations of decoding parameters; (5) qualitative validation conducted by 12 radiologists, considering fidelity to the original report, text clarity, and structural organization; and (6) quantitative validation based on the construction of a manual reference for comparison with automatic metrics. Model performance was assessed through quantitative analyses using precision, recall, and F1-score, allowing comparisons with previous studies. Furthermore, the proposed approach advanced the state of the art by exploring the use of Natural Language Processing (NLP) tools in Portuguese — a field still scarcely explored. Thus, this work established an innovative reference for the application of LLMs in diagnostic medicine, directly contributing to the improvement of patient care.
|
|
|
29
|
-
PATRICK SANTOS FERREIRA
-
A Evasão Escolar no Ensino Fundamental II: Análise e Intervenções pautadas na dimensão Estudante-Estudante (EST-EST) do Modelo IAFREE-R
-
Orientador : IG IBERT BITTENCOURT SANTANA PINTO
-
MEMBROS DA BANCA :
-
GABRIEL FORTES CAVALCANTI DE MACÊDO
-
IG IBERT BITTENCOURT SANTANA PINTO
-
LEOGILDO ALVES FREIRES
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 05/12/2025
-
-
Mostrar Resumo
-
O presente estudo investiga os parâmetros psicométricos da versão revisada do Instrumento de Avaliação dos Fatores Relacionais de Risco à Evasão Escolar (IAFREER), validado por Vasconcelos et al. (2023). Esta ferramenta visa facilitar a coleta de dados junto à comunidade escolar, visando colaborar com a maior adesão da rede educacional brasileira. Foram realizadas revisões integrais no instrumento, incluindo análise de juízes para validade de conteúdo, validação semântica e um estudo piloto com estudantes brasileiros no contexto do da Rede Pública Ensino Básico do Fundamental 2 de uma instituição pública do Município de São Sebastião, no Estado de Alagoas, (N = 2035). Os resultados das análises confirmatórias indicam que os ajustes do modelo revisado, mantendo os 36 itens originais, foram adequados e superiores à versão original do IAFREE. Além disso, os itens de cada um dos 12 fatores de risco do IAFREE-R demonstraram níveis de discriminação adequados e aceitáveis níveis de dificuldade. No contexto da avaliação dos fatores relacionais de risco à evasão escolar, os aspectos emocionais e afetivos emergiram como variáveis fundamentais. Observou-se que um maior número de amizades entre os estudantes está associado a um maior engajamento nas atividades escolares, enquanto um círculo de amigos desinteressados na escola tende a elevar o grau de desengajamento. Casos de violência e baixa identificação com o grupo de pares também foram identificados como fatores que contribuem para o desengajamento e afetam a autopercepção, resiliência e persistência nos estudos. Com base nos resultados do IAFREE-R, foi possível estabelecer três níveis de risco de evasão escolar: baixo, médio e alto. Escores baixos indicam que o(a) estudante é engajado(a) nas atividades escolares, tem uma boa relação com os colegas e isso influencia positivamente na saúde e aspectos emocionais do(a) estudante, incorrendo em um baixo risco de evasão escolar. Escores médios indicam que o(a) estudante pode estar percebendo dificuldades em suas relações com outros(as) estudantes e isso pode afetar sua vontade de continuar na escola, demonstrando um risco médio de evasão escolar. Escores altos indicam problemas frequentes percebidos pelo(a) estudante em suas relações com os(as) colegas, dificuldade em fazer amigos, violências do tipo bullying e reflete em um risco alto de evasão escolar. Conclui-se que o IAFREE-R apresenta propriedades psicométricas adequadas, com vantagens operacionais em termos de aplicação, garantindo sua qualidade métrica e usabilidade em contextos de pesquisa e de intervenções em larga escala no contexto brasileiro.
-
Mostrar Abstract
-
The present study investigates the psychometric parameters of the revised version of the School Dropout Risk Relational Factors Assessment Instrument (IAFREE-R), validated by Vasconcelos et al. (2023). This tool aims to facilitate data collection within the school community, aiming to collaborate with greater adherence to the Brazilian educational network. Comprehensive revisions were made to the instrument, including judge analysis for content validity, semantic validation, and a pilot study with Brazilian students in the context of the Public Basic Education Network of Fundamental 2 in a public institution in São Sebastião Municipality, in the State of Alagoas, (N = 2035). The results of confirmatory analyses indicate that the adjustments to the revised model while maintaining the original 36 items, were adequate and superior to the original version of IAFREE. Additionally, the items of each of the 12 risk factors of IAFREE-R demonstrated adequate discrimination levels and acceptable difficulty levels. In the context of evaluating relational risk factors for school dropout, emotional and affective aspects have emerged as fundamental variables. It was observed that a greater number of friendships among students is associated with greater engagement in school activities, while a circle of friends disinterested in school tends to increase disengagement. Cases of violence and low identification with peer groups were also identified as factors contributing to disengagement and affecting self-perception, resilience, and persistence in studies. Based on the results of IAFREE-R, it was possible to establish three levels of school dropout risk: low, medium, and high. Low scores indicate that the student is engaged in school activities, and has a good relationship with peers, and this positively influences the student's health and emotional aspects, resulting in a low risk of school dropout. Medium scores indicate that the student may be experiencing difficulties in their relationships with other students, which may affect their willingness to continue in school, demonstrating a medium risk of school dropout. High scores indicate frequent problems perceived by the student in their relationships with peers, difficulty in making friends, bullying violence, and a high risk of school dropout. It is concluded that the IAFREE-R presents adequate psychometric properties, with operational advantages in terms of application, ensuring its metric quality and usability in research and intervention contexts on a large scale in the Brazilian context
|
|
|
30
|
-
GEOVANE LEITE DE CARVALHO FILHO
-
Validação de gêmeos digitais de AGVs baseada em similaridade de dados sensoriais brutos
-
Orientador : LEANDRO DIAS DA SILVA
-
MEMBROS DA BANCA :
-
ALLAN DE MEDEIROS MARTINS
-
GILBERTO FRANCISCO MARTHA DE SOUZA
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
LEANDRO DIAS DA SILVA
-
MARCELO COSTA OLIVEIRA
-
Data: 15/12/2025
-
-
Mostrar Resumo
-
Este trabalho apresenta uma metodologia quantitativa para a validação da fidelidade operacional de Gêmeos Digitais (Digital Twins, DTs) de Veículos Guiados Automaticamente (AGVs), fundamentada exclusivamente na comparação de dados sensoriais brutos. Duas simulações paralelas foram implementadas no CoppeliaSim: um AGV fonte, responsável por gerar a telemetria, e seu gêmeo digital, que recebe exatamente o mesmo fluxo de comandos via MQTT sob a regra de no-pose-injection, garantindo evolução dinâmica independente. As séries temporais de odometria, velocidades das rodas e IMU foram avaliadas por um conjunto de métricas que combinam precisão pontual e coerência temporal, incluindo MAE, MSE, RMSE, MAPE, Dynamic Time Warping normalizado (DTWnorm), correlação cruzada e estimativa de atraso. Três cenários experimentais foram definidos (operação nominal, atraso na execução dos comandos e perturbação do modelo), permitindo analisar separadamente os efeitos de dessincronização e inconsistência dinâmica. Os resultados mostram que métricas pontuais são sensíveis à defasagem temporal, ao passo que DTWnorm e Fréchet evidenciam divergências estruturais na trajetória, demonstrando a complementaridade das métricas propostas.
-
Mostrar Abstract
-
Este trabalho apresenta uma metodologia quantitativa para a validação da fidelidade operacional de Gêmeos Digitais (Digital Twins, DTs) de Veículos Guiados Automaticamente (AGVs), fundamentada exclusivamente na comparação de dados sensoriais brutos. Duas simulações paralelas foram implementadas no CoppeliaSim: um AGV fonte, responsável por gerar a telemetria, e seu gêmeo digital, que recebe exatamente o mesmo fluxo de comandos via MQTT sob a regra de no-pose-injection, garantindo evolução dinâmica independente. As séries temporais de odometria, velocidades das rodas e IMU foram avaliadas por um conjunto de métricas que combinam precisão pontual e coerência temporal, incluindo MAE, MSE, RMSE, MAPE, Dynamic Time Warping normalizado (DTWnorm), correlação cruzada e estimativa de atraso. Três cenários experimentais foram definidos (operação nominal, atraso na execução dos comandos e perturbação do modelo), permitindo analisar separadamente os efeitos de dessincronização e inconsistência dinâmica. Os resultados mostram que métricas pontuais são sensíveis à defasagem temporal, ao passo que DTWnorm e Fréchet evidenciam divergências estruturais na trajetória, demonstrando a complementaridade das métricas propostas.
|
|
|
31
|
-
THIAGO DE ALBUQUERQUE SOUZA MEDEIROS
-
LakeEdu: Uma Arquitetura Computacional Interoperável e Rastreável para Governança de Dados Educacionais
-
Orientador : ANDRE MAGNO COSTA DE ARAUJO
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
FABIO JOSE COUTINHO DA SILVA
-
PAULA TOLEDO PALOMINO
-
Data: 16/12/2025
-
-
Mostrar Resumo
-
O crescimento da geração de dados, impulsionado pela conectividade e pelo uso disseminado de dispositivos digitais, tem ampliado as possibilidades de análise e de tomada de decisão em diversos setores, inclusive na educação. Nesse contexto, os dados desempenham papel central no aprimoramento de políticas educacionais, no monitoramento de indicadores e na personalização de práticas pedagógicas. Entretanto, persistem desafios relacionados à qualidade, à integração, à interoperabilidade e ao rastreamento das informações, especialmente em ambientes em que múltiplas instituições e sistemas coexistem. A ausência de uma infraestrutura de dados integrada dificulta o compartilhamento de informações e limita o potencial analítico das redes de ensino. Como ponto de partida, esta dissertação realizou uma investigação exploratória no Censo Escolar, buscando identificar evidências sobre a maturidade das tecnologias da informação e comunicação das unidades escolares do país, bem como compreender como essas condições estruturais influenciam a gestão e o uso de dados. Em seguida, o estudo aprofunda a análise da adoção de práticas de governança de dados no setor educacional a partir de duas frentes complementares. A análise do estado da arte é conduzida por meio de revisão da literatura, o que permite identificar tendências, metodologias e lacunas relacionadas à integração, interoperabilidade e rastreabilidade de dados. Em paralelo, o estado da prática é examinado por meio de métodos mistos, combinando um instrumento quantitativo e entrevistas qualitativas aplicadas a atores da gestão de dados na educação. Os resultados revelam limitações tecnológicas e organizacionais que dificultam a consolidação de uma governança de dados robusta. Com base nas evidências obtidas nessas análises, esta dissertação propõe a arquitetura LakeEdu, uma solução computacional interoperável e rastreável para governança de dados educacionais. A arquitetura conceitual proposta integra mecanismos de preparação, integração, qualificação, segurança e rastreamento de informações, além de uma camada de tecnologia de registro distribuído para registrar evidências de maneira verificável. A proposta busca enfrentar as lacunas identificadas, apoiar a padronização de fluxos de dados e fortalecer a gestão de informações em instituições municipais, estaduais e federais, contribuindo para práticas mais consistentes de governança de dados no ecossistema educacional.
-
Mostrar Abstract
-
The growth in data generation, driven by connectivity and the widespread use of digital devices, has expanded the possibilities for analysis and decision-making in various sectors, including education. In this context, data plays a central role in improving educational policies, monitoring indicators, and personalizing pedagogical practices. However, challenges related to the quality, integration, interoperability, and traceability of information persist, especially in environments where multiple institutions and systems coexist. The absence of an integrated data infrastructure hinders information sharing and limits the analytical potential of education networks. As a starting point, this dissertation conducted an exploratory investigation of the School Census, seeking to identify evidence of the updating of information and communication technologies in the country's school units and to understand how these structural conditions influence data management and use. Subsequently, the study deepens the analysis of data governance practices adoption in the education sector from two complementary perspectives. The state-of-the-art analysis is conducted through a literature review, which identifies trends, methodologies, and gaps in data integration, interoperability, and traceability. In parallel, the state of practice is examined using mixed methods, combining a quantitative instrument and qualitative interviews applied to data management stakeholders in education. The results revealed technological and organizational specifications that hindered the consolidation of robust data governance. Based on the evidence from these analyses, this dissertation proposes the LakeEdu architecture, an interoperable, traceable computational solution for educational data governance. The proposed conceptual architecture integrates mechanisms for information preparation, integration, qualification, security, and traceability, as well as a distributed ledger technology layer to record evidence in a verifiable manner. The proposal seeks to address the identified gaps, support the standardization of data flows, and strengthen information management across municipal, state, and federal institutions, thereby contributing to more consistent data governance practices in the educational ecosystem.
|
|
|
32
|
-
ELEILTON ANTONIO DOS SANTOS
-
Controle Adaptativo Livre de Modelo (MFAC): Investigação Teórica, Simulações e Evidências Experimentais em Sistemas Dinâmicos Complexos
-
Orientador : LEANDRO DIAS DA SILVA
-
MEMBROS DA BANCA :
-
ABEL CAVALCANTE LIMA FILHO
-
ALLAN DE MEDEIROS MARTINS
-
GLAUBER RODRIGUES LEITE
-
ICARO BEZERRA QUEIROZ DE ARAUJO
-
LEANDRO DIAS DA SILVA
-
Data: 17/12/2025
-
-
Mostrar Resumo
-
Este trabalho avalia a aplicabilidade do Controle Adaptativo Livre de Modelo (MFAC) em sistemas dinâmicos sujeitos a não linearidades e mudanças abruptas. Foram conduzidas simulações em três sistemas representativos e experimentos em uma planta real de controle de temperatura (TCLab), permitindo uma análise da adaptabilidade do método. Os resultados demonstram que o MFAC supera controladores PID tradicionais em todas as métricas analisadas, apresentando menor erro de rastreamento (RMSE, IAE, ISE, ITAE), menor overshoot e menor esforço de controle. Nos experimentos com o TCLab, o MFAC manteve estabilidade prática, adaptação a mudanças na referência e desempenho consistente mesmo sob ruído, saturação e perturbações externas. Esses experimentos evidenciam que a linearização dinâmica baseada em dados captura adequadamente as características essenciais da planta sem necessidade de modelos auxiliares, reforçando a viabilidade prática do MFAC. Conclui-se que o MFAC “puro” é uma alternativa simples, eficiente e orientada a dados para substituição de controladores PID em sistemas SISO não lineares.
-
Mostrar Abstract
-
Sistemas não lineares representam a maioria dos sistemas práticos encontrados no mundo real. As características desses sistemas são a incerteza e variação de modelo e parâmetros, que muitas vezes podem também ser desconhecidos. O controle adaptativo livre de modelo, model free adaptive control - MFAC, se faz necessário para o controle e análise desses sistemas. O presente trabalho tem como objetivo o estudo e investigação prática de um modelo generalizado de controle adaptativo orientado por dados. Tendo como primariedade o estudo de trabalhos desenvolvidos sobre essa abordagem. Como objetivo subsidiário, será implementado o modelo estudado a fim de avaliar-se de maneira prática a estabilidade e robustez sob grandes distúrbios.
|
|
|
33
|
-
WANSEL JUVINO DE LEMOS
-
Visualização de dados para análise e apoio no processo de tomada de decisão de professores em ambientes online de aprendizagem
-
Orientador : RANILSON OSCAR ARAUJO PAIVA
-
MEMBROS DA BANCA :
-
DIEGO DERMEVAL MEDEIROS DA CUNHA MATOS
-
JARIO JOSE DOS SANTOS JUNIOR
-
KAMILA RIOS DA HORA RODRIGUES
-
RANILSON OSCAR ARAUJO PAIVA
-
Data: 22/12/2025
-
-
Mostrar Resumo
-
Em ambientes online de aprendizagem, a ausência de momentos presenciais priva o professor da percepção de situações pedagógicas relevantes durante as aulas. Sem essas informações o professor precisa contar com o processamento de dados disponíveis nesses ambientes virtuais de aprendizagem, para extrair deles informações úteis para guiar a sua tomada de decisão. Essas informações devem apoiar o professor a identificação de situações pedagógicas relevantes, entender seus motivos e orientar uma possível abordagem. Contudo, a maioria dos professores não possui conhecimentos específicos para o uso efetivo das tecnologias e técnicas para realizar o processamento desses dados, nem para a interpretação dos resultados de tal processamento. Portanto, é necessário fornecer apoio fácil e rápido à tomada de decisão pedagógica desses professores. Dessa forma, este trabalho propõe a criação de visualizações de dados, geradas do processamento dos dados do ambiente online de aprendizagem, para (1) apoiar a identificação de situações pedagógicas relevantes ocorrendo nesses ambientes, (2) compreender as causas de tais situações pedagógicas e (3) criar intervenções pedagógicas para abordar as situações identificadas. Assim, criamos um conjunto de visualizações para explorar problemas comuns em uma sala de aula, onde cada um visa alertar sobre um problema pedagógico ocorrendo em um curso online, trazer informações que permitam identificar as causas do problema e, com isso, apoiar a tomada de decisão docente, para solucioná-lo. Para avaliar nossa proposta, realizaremos um experimento onde docentes serão convidados a avaliar a capacidade de as visualizações, de fato, alertarem sobre problemas pedagógicos (o horário que os estudantes chegam e saem de momentos online síncronos, e o desempenho na resolução de problemas disponibilizados na plataforma de ensino/aprendizagem online). Além disso, um questionário, baseado no Technology Acceptance Model (TAM) deverá ser respondido pelos participantes, coletando suas percepções sobre a utilidade, facilidade de uso, intenção de uso, estética e atitude em relação ao uso da visualizações avaliadas. Atualmente, estamos construindo o questionário e o roteiro que deve ser seguido no experimento.
-
Mostrar Abstract
-
In online learning environments, the absence of face-to-face moments deprives teachers of the perception of relevant pedagogical situations during classes. Without this information, teachers need to rely on the processing of data available in these virtual learning environments to extract useful information from them to guide their decision-making. This information should support teachers in identifying relevant pedagogical situations, understanding their reasons, and guiding a possible approach. However, most teachers do not have specific knowledge for the effective use of technologies and techniques to process this data, nor for interpreting the results of such processing. Therefore, it is necessary to provide easy and quick support for these teachers' pedagogical decision-making. Thus, this work proposes the creation of data visualizations, generated by the processing of data from the online learning environment, to (1) support the identification of relevant pedagogical situations occurring in these environments, (2) understand the causes of such pedagogical situations, and (3) create pedagogical interventions to address the identified situations. Thus, we created a set of visualizations to explore common problems in a classroom, where each one aims to alert about a pedagogical problem occurring in an online course, provide information that allows identifying the causes of the problem and, with that, support the teacher's decision-making to solve it. To evaluate our proposal, we will conduct an experiment in which teachers will be invited to evaluate the ability of the visualizations to, in fact, alert about pedagogical problems (the time that students arrive and leave synchronous online moments, and the performance in solving problems made available on the online teaching/learning platform). In addition, a questionnaire, based on the Technology Acceptance Model (TAM), will be answered by the participants, collecting their perceptions about the usefulness, ease of use, intended use, aesthetics and attitude towards the use of the visualizations evaluated. We are currently developing the questionnaire and the script that should be followed in the experiment.
|
|
|
34
|
-
ARTUR SANTOS DE FARIAS
-
Testes de Software Automatizados: Uma Avaliação Empírica para Detecção de Vulnerabilidades em Java
-
Orientador : RODRIGO GUSMÃO DE CARVALHO ROCHA
-
MEMBROS DA BANCA :
-
ANDRE MAGNO COSTA DE ARAUJO
-
IGOR MEDEIROS VANDERLEI
-
RODRIGO GUSMÃO DE CARVALHO ROCHA
-
Data: 22/12/2025
-
-
Mostrar Resumo
-
A crescente complexidade dos sistemas e a necessidade de garantir segurança e confiabilidade tornam os testes de software um elemento essencial no desenvolvimento de sistemas computacionais. Nesse cenário, a detecção precoce de vulnerabilidades assume papel central, especialmente diante das limitações de tempo, custo e escala que desafiam as equipes. Embora a automação de testes tenha avançado como estratégia promissora, ainda há lacunas quanto à efetividade das ferramentas disponíveis para identificar falhas de segurança de forma consistente. Diante desse contexto, justifica-se a necessidade de estudos que avaliem empiricamente a real capacidade dessas ferramentas, oferecendo evidências que apoiem o uso mais consciente e eficiente da automação. Este trabalho tem como objetivo realizar uma avaliação empírica comparativa de ferramentas de Testes de Software Automatizados, identificando resultados, capacidades, limitações e condições de aplicabilidade na detecção de vulnerabilidades de segurança em projetos Java. A metodologia inclui a condução de um mapeamento sistemático da literatura, que consolidou evidências do estado da arte em Software Testing e Automated Software Testing, seguido da definição de um ambiente experimental composto por métricas, critérios de comparação e repositórios Java contendo vulnerabilidades reais. As ferramentas selecionadas foram configuradas e executadas em ambiente controlado, com coleta e análise quantitativa e qualitativa dos dados produzidos. Os resultados evidenciam diferenças expressivas entre as ferramentas avaliadas, revelando variações em precisão, cobertura, robustez e capacidade de detectar vulnerabilidades reais. Esses achados oferecem uma visão clara sobre comportamentos, limitações e potenciais de uso das abordagens analisadas no contexto de segurança. As conclusões deste estudo beneficiam pesquisadores, desenvolvedores, engenheiros de teste e organizações que buscam aprimorar seus processos de verificação, aumentar a segurança de sistemas Java e adotar ferramentas de automação de maneira mais informada e eficaz.
-
Mostrar Abstract
-
In the context of software development, software testing is essential during the process to ensure product quality and reliability. It plays a fundamental role in all stages of the development life cycle, ensuring that products meet functional and non-functional requirements, in addition to enabling early detection of failures. In recent decades, with the increasing complexity of applications and the demand for robust and secure solutions, the area of software testing has increasingly consolidated. However, although essential, software testing presents several challenges, especially in terms of cost, which can represent a large part of the software project budget. This scenario raises questions about the need for strategies and tools that can optimize the testing process as a strategic component of the development process. This work has the general objective of investigating the automation of security tests in systems, evaluating the impact of using these automated tests. The research methodology followed a structured protocol that guided the systematic mapping in five scientific bases: IEEEXplore, ACM, Science Direct, Springer Link and Scopus. After a comprehensive screening process, a total of 286 primary studies were systematically reviewed. In its initial stages, the study investigated the most commonly used types of software testing, the predominant approaches employed, the challenges faced during testing, the reported benefits of implementing software testing, the best practices recognized in the testing literature, and the tools frequently applied in the area. Based on the evidence obtained in this work, future steps of the work aim to develop automated security testing scripts, define metrics, and perform a case study. The data obtained will then be analyzed to compose a proposal for an automated security testing standard. The results obtained so far provide valuable insights into current software testing practices and highlight the challenges faced in this area. In addition, this study identifies effective solutions and best practices, helping researchers and industry professionals to improve their software testing processes.
|
|