Mostrar el registro sencillo del ítem
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
dc.contributor.advisor | Kastensmidt, Fernanda Gusmão de Lima | pt_BR |
dc.contributor.author | Fonseca, Juan Suzano da | pt_BR |
dc.date.accessioned | 2022-09-10T05:14:24Z | pt_BR |
dc.date.issued | 2022 | pt_BR |
dc.identifier.uri | http://hdl.handle.net/10183/248617 | pt_BR |
dc.description.abstract | Neural networks have been used for all types of applications, ranging from stock market predictions to image recognition. They can be trained and synthesized into FPGAs using engines or entirely in parallel. However, implementing fully parallelized neural networks can be challenging due to the number of parameters and multiply-accumulate operations required. Optimization is very important to achieve area, power, and performance re quirements. Approximate computation is a paradigm that aims at the tradeoff between the accuracy and cost of a computing operation. Several applications can be considered error-resilient. This means that they do not need 100% accurate operations to work cor rectly. In these cases, it is possible to make approximations in the operations performed, reducing the cost involved, and keeping the accuracy within acceptable limits. It can help optimize neural networks in terms of FPGA resources consumption. This work will investigate the benefits that the fixed-point data quantization technique can bring to the development of neural networks in FPGA. | en |
dc.description.abstract | Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA. | pt_BR |
dc.format.mimetype | application/pdf | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | Open Access | en |
dc.subject | Redes neurais | pt_BR |
dc.subject | Convolutional neural network | en |
dc.subject | Otimização | pt_BR |
dc.subject | Approximate computing | en |
dc.subject | Computação aproximativa | pt_BR |
dc.subject | FPGA | en |
dc.title | Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS | pt_BR |
dc.title.alternative | Investigando o uso de computação aproximada em uma rede neural convolucional implementada em FPGA utilizando HLS | pt |
dc.type | Trabalho de conclusão de graduação | pt_BR |
dc.identifier.nrb | 001147896 | pt_BR |
dc.degree.grantor | Universidade Federal do Rio Grande do Sul | pt_BR |
dc.degree.department | Instituto de Informática | pt_BR |
dc.degree.local | Porto Alegre, BR-RS | pt_BR |
dc.degree.date | 2022 | pt_BR |
dc.degree.graduation | Ciência da Computação: Ênfase em Ciência da Computação: Bacharelado | pt_BR |
dc.degree.level | graduação | pt_BR |
Ficheros en el ítem
Este ítem está licenciado en la Creative Commons License
-
Tesinas de Curso de Grado (37607)