UR-SRGAN: A Generative Adversarial Network for Real-world
Super-resolution with a U-Net-based Discriminator
Image Super-resolution, Deep Learning, Loss Functions,
Degradation Modeling, Real-world Super-resolution
Apesar de várias melhorias nas técnicas de aprendizado profundo de
super-resolução, esses métodos propostos tendem a falhar em muitos cenários
do mundo real, pois seus modelos geralmente são treinados usando um
processo de degradação predefinido de imagens de verdade de alta resolução
(HR) para baixa resolução (LR). Neste trabalho, propomos um modelo
supervisionado de Generative Adversarial Network (GAN) para Super-Resolução
(SR) de Imagem que tem como primeira etapa estimar kernels de blur e
estimativa de ruído de imagens do mundo real para gerar imagens LR para a
fase de treinamento. Além disso, a proposta inclui a implementação de um
novo discriminador baseado em U-Net, para considerar o contexto global e
local de uma imagem de entrada, e permite empregar um aumento de dados
CutMix para regularização de consistência no espaço de saída bidimensional
do decodificador. O modelo proposto foi aplicado a três conjuntos de dados
principais que são normalmente usados em competições oficiais de
super-resolução. As métricas de avaliação comumente usadas para restauração
de imagem PSNR, SSIM e LPIPS foram usadas para esta avaliação. Após a
implementação desta nova arquitetura, três outros modelos de destaque nas
propostas GAN de super-resolução de última geração foram treinados com os
mesmos parâmetros e bancos de dados para realizar uma comparação global
entre todos eles. Por fim, os resultados da experimentação em tarefas de
treinamento e avaliação entre todos os modelos sugerem uma melhora no
desempenho do trabalho apresentado em relação às demais arquiteturas
baseadas nas métricas estabelecidas.