Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
View/ Open
Date
2022Advisor
Academic level
Graduation
Abstract in Portuguese (Brasil)
Nos últimos anos, trabalhos inovadores, impulsionados por levantamentos robustos do céu e método eficientes de detecção, reacenderam o interesse da comunidade científica por Galáxias de Baixo Brilho Superficial, uma classe peculiar de galáxias que apresentam baixa densidade superficial de estrelas e são muito fracas e difusas em imagens ópticas. Se a detecção automática dessas galáxias em levantamentos fotométricos por si só já é uma tarefa complicada, dado seus baixos brilhos superficiais, as ...
Nos últimos anos, trabalhos inovadores, impulsionados por levantamentos robustos do céu e método eficientes de detecção, reacenderam o interesse da comunidade científica por Galáxias de Baixo Brilho Superficial, uma classe peculiar de galáxias que apresentam baixa densidade superficial de estrelas e são muito fracas e difusas em imagens ópticas. Se a detecção automática dessas galáxias em levantamentos fotométricos por si só já é uma tarefa complicada, dado seus baixos brilhos superficiais, as buscas por esses objetos sofrem de um problema adicional: a enorme quantidade de artefatos que são detectados nas imagens e também possuem baixo brilho superficial. Com a crescente quantidade de dados astronômicos, a inspeção visual para rejeitar os artefatos detectados se torna impraticável e é essencial desenvolver métodos eficientes para separar galáxias de baixo brilho superficial de artefatos. Métodos de aprendizado de máquina profundo, como as Redes Neurais Convolucionais, são considerados o estado da arte em diversos problemas de classificação de imagens. Neste trabalho, temos o objetivo de comparar a performance da rede Vision Tranformers, que causou forte impacto na literatura recentemente por desafiar o paradigma do estado da arte, com as Redes Neurais Convolucionais para identificar Galáxias de Baixo Brilho Superficial. Para fazer isso, implementamos uma rede Vision Transformers e a comparamos com a rede DeepShadows, uma Rede Neural Convolucional desenvolvida por Tanoglidis et al. (2021b). Ambas as redes foram treinadas a partir do único conjunto de imagens desses objetos publicamente disponível, composto de 40000 imagens do Dark Energy Survey. Verificamos que o nosso modelo alcançou métricas ligeiramente superiores às da DeepShadows. Entre essas, quando treinadas no conjunto de dados em formato PNG, o modelo padrão da nossa rede obteve uma acurácia de 0.929, 0.98% maior que a da DeepShadows. No entanto, ao fazer uma análise das incertezas das métricas de classificação utilizando o método de bootstrap, constatamos que o desempenho da nossa rede foi tão bom quanto o da DeepShadows dentro do intervalo de 95% de confiança das métricas. Além disso, utilizando imagens do mesmo conjunto de dados, porém no formato FITS, implementamos um método de pré-processamento dos dados de entrada, que visa aperfeiçoar o desempenho das redes. Este método consiste em realizar um ajuste de contraste para ressaltar os objetos de baixo brilho superficial nas imagens. Verificamos que o ajuste de contraste contribuiu para que tanto o modelo padrão da Vision Transformers como a DeepShadows alcançassem uma performance superior. Ainda assim, os melhores resultados do treinamento com o conjunto de imagens FITS não superam os resultados de ambas as redes quando treinadas no conjunto de PNG. Conforme mostrou Dosovitskiy et al. (2021), com o aumento da quantidade de dados, as redes Vision Transformers são capazes de superar o desempenho das Redes Neurais Convolucionais, portanto esse parece ser um panorama especialmente interessante para as Vision Transformers. ...
Abstract
In the last years, innovative works, fueled by robust sky surveys and efficient methods of detection, rekindled the interest of the scientific community for Low Surface Brightness Galaxies, a peculiar class of galaxies with low superficial stellar density that are very faint and diffuse in optical images. If the automatic detection of these galaxies in photometric surveys is already a complicated task, given their low surface brightness, searches for these objects suffer an aditional problem: t ...
In the last years, innovative works, fueled by robust sky surveys and efficient methods of detection, rekindled the interest of the scientific community for Low Surface Brightness Galaxies, a peculiar class of galaxies with low superficial stellar density that are very faint and diffuse in optical images. If the automatic detection of these galaxies in photometric surveys is already a complicated task, given their low surface brightness, searches for these objects suffer an aditional problem: the enormous amount of artifacts that are detected in the images and also have low surface brightness. With the growing amount of astronomical data, visual inspection to reject detected artifacts becomes impratical and it is necessary to develop efficient methods to separate Low Surface Brightness Galaxies from artifacts. Deep Learning methods, like Convolutional Neural Networks, are considered the state-of-the-art in several image classification problems. In this work, we aim at comparing the performance of the Visual Tranformers network, which recently caused a huge impact in the literature for challenging the paradigm of the state-of-the-art, with Convolutional Neural Networks to identify Low Surface Brightness Galaxies. To do that, we implemented a Visual Transformers Network and compared it with the DeepShadows Network, a Convolutional Neural Network developed by Tanoglidis et al. (2021b). Both networks were trained using the only image set of these objects publicly avaliable, composed of 40000 images from the Dark Energy Survey. We verified that our model achieved slightly superior metrics in comparison with DeepShadows. Between those, when trained on the dataset using the PNG format, the standard model of our network achieved an accuracy = 0.929, which is 0.98% higher than the one of DeepShadows. However, when computing the uncertainties on the metrics of our method using the bootstrap method, we have noticied that the performance of our network was as good as the one obtained by DeepShadows when considering de 95% confidence interval of the metrics. Besides that, using images of the same dataset, but in the FITS format, we implemented a method to pre-processes the input data, which aims to improve the performance of the networks. This method consists of doing a contrast adjusment to highlight low surface brightness objects in the images. We noticed that the contrast adjustment contribuited both to the ViT standard model and DeepShadows to achieve a higher performance. However, the best training result with the FITS image set did not overcome the results of both networks when applied to the PNG dataset. Like Dosovitskiy et al. (2021) showed, with the increase of the datasets, the Visual Tranformers Networks can overcome the performance of Convolutional Neural Networks, therefore that seems to be an specially interesting paradigm to Vision Transformers. ...
Institution
Universidade Federal do Rio Grande do Sul. Instituto de Física. Curso de Física: Bacharelado.
Collections
This item is licensed under a Creative Commons License