Estratégias de Redução de Modelos de Redes Neurais e sua Influência na Robustez Contra Corrupções Naturais em Imagens
Inteligência Artificial; Processamento de Imagens; Robustez; Compressão de modelos.
As redes neurais profundas têm se mostrado eficazes em diversas tarefas de visão computacional, como a classificação de objetos. Entretanto, esses modelos frequentemente perdem desempenho ao lidar com distorções naturais em imagens, o que representa um desafio relevante em aplicações reais, como veículos autônomos, onde as condições ambientais variam constantemente. Este estudo investiga a robustez de modelos de aprendizagem de máquina após a aplicação de técnicas de otimização de tamanho, incluindo poda, quantização e weight sharing. A pesquisa analisa quais técnicas — e combinações entre elas — impactam mais a robustez frente a corrupções naturais, além de examinar a relação entre redução do modelo e desempenho robusto. Foram avaliados modelos baseados nas arquiteturas ResNet-50, VGG-19 e MobileNetV2. Utilizando os conjuntos de dados CIFAR-10-C e CIFAR-100-C, examinamos os trade-offs entre robustez, acurácia e taxa de compressão. Os resultados indicam que algumas estratégias de compressão não apenas preservam, mas também podem aumentar a robustez, especialmente em arquiteturas mais complexas. A partir de uma avaliação multiobjetivo, identificamos configurações que equilibram esses critérios de forma eficiente, mostrando que combinações personalizadas de técnicas geram benefícios consistentes. O estudo oferece subsídios para a escolha de métodos de compressão voltados à implantação robusta e eficiente de modelos em ambientes reais sujeitos a corrupções.