Análise da hierarquia de memórias em GPGPUs
dc.contributor.advisor | Navaux, Philippe Olivier Alexandre | pt_BR |
dc.contributor.author | Conrad, Danilo Fukuda | pt_BR |
dc.date.accessioned | 2010-10-14T04:19:19Z | pt_BR |
dc.date.issued | 2010 | pt_BR |
dc.identifier.uri | http://hdl.handle.net/10183/26339 | pt_BR |
dc.description.abstract | O uso de placas gráficas como elementos de co-processamento para obter alto desempenho em aplicações paralelas tem crescido cada vez mais nos últimos tempos. Diversos são os exemplos de aplicações que, fazendo uso dessas arquiteturas, obtiveram speedups de até duas ordens de magnitude. Isto é possível pois as GPUs (Graphics Processing Units) possuem uma arquitetura altamente paralela, especializada em processamento de elementos gráficos, que pode ser feito em grande parte paralelamente. Além disso, o surgimento de linguagens de programação e frameworks que facilitam a programação nessas arquiteturas tem sido outro fator chave em sua popularização. Entretanto, ainda é necessário um aprofundado conhecimento da arquitetura utilizada a fim de dimensionar as aplicações nela executadas. Este trabalho tem como objetivo analisar o impacto de diferentes otimizações no acesso à memória da GPU utilizado como caso de estudo a arquitetura CUDA da empresa NVIDIA. | pt_BR |
dc.description.abstract | The use of graphics cards as coprocessing elements in order to achieve high performance in parallel applications is growing in the last couple of years. There are many examples of applications which, using such architectures, have achieved up to 2 orders of magnitude speedups in their performance. This is possible because GPUs (Graphics Processing Units) have a highly parallel architecture, specialized in processing graphics elements, which are highly independent and can often be processed separately, in parallel. Tools for aiding developers such as higher level programming languages and frameworks are factors which helped GPUs gain popularity for general purpose computing. However, a deep knowledge of its underlying architecture is needed in order to achieve a good performance. This work aims at analyzing the impact of different optimizations in accesses to the GPU memories using the CUDA (Compute Unified Device Architecture) architecture from NVIDIA as a case study. | en |
dc.format.mimetype | application/pdf | |
dc.language.iso | por | pt_BR |
dc.rights | Open Access | en |
dc.subject | GPGPU | en |
dc.subject | Processamento paralelo | pt_BR |
dc.subject | Parallel computing | en |
dc.subject | Mpi | pt_BR |
dc.subject | Performance analysis | en |
dc.subject | CUDA | en |
dc.subject | Memory | en |
dc.title | Análise da hierarquia de memórias em GPGPUs | pt_BR |
dc.type | Trabalho de conclusão de graduação | pt_BR |
dc.identifier.nrb | 000757777 | pt_BR |
dc.degree.grantor | Universidade Federal do Rio Grande do Sul | pt_BR |
dc.degree.department | Instituto de Informática | pt_BR |
dc.degree.local | Porto Alegre, BR-RS | pt_BR |
dc.degree.date | 2010 | pt_BR |
dc.degree.graduation | Ciência da Computação: Ênfase em Ciência da Computação: Bacharelado | pt_BR |
dc.degree.level | graduação | pt_BR |
Este item está licenciado na Creative Commons License
-
TCC Ciência da Computação (1024)