MODELO PARA TRADUÇÃO DE IMAGENS MÉDICAS USANDO REDES GERATIVAS ADVERSÁRIAS
No campo da imagiologia médica é utilizada uma vasta gama de métodos para obter informação sobre órgãos e tecidos, incluindo tomografia computadorizada, ressonância magnética, tomografia por emissão de positrões e etc. Essa variedade oferece opções de diagnósticos abundantes, mas também representa um desafio quando se trata de tradução de informações de imagem entre diferentes modalidades ou diferentes aquisições dentro de uma modalidade. A tradução imagem-imagem é considerada uma grande barreira na análise de imagens médicas, mas com inúmeras aplicações potenciais. Para contornar esse barreira nós investigamos o uso de redes generativas adversárias como uma solução de propósito geral para problemas de tradução de imagem para imagem. Essas redes não apenas aprendem o mapeamento da imagem de entrada para a imagem de saída, mas também aprendem uma função de perda para treinar esse mapeamento. Utilizamos uma rede discriminadora como um extractor de funções treináveis que penaliza a discrepância entre as imagens médicas traduzidas e as modalidades desejadas, seja em relação ao pixel ou em relação a característica perceptiva. O objetivo é que essa tradução seja útil para a classificação multimodal de indivíduos saudáveis e doentes, onde vários tipos de imagens médicas são combinados para melhorar a sensibilidade e para evitar que paciente sejam submetidos a exames desnecessário, exames que podem ter futuramente um efeito colateral como o exame de tomografia, onde o paciente necessita receber radiação.
Generative Adversarial Networks, Medical Images Translational, Synthetic Images