Explorando a descentralização para melhorar o desempenho das redes neurais no contínuo heterogêneo entre dispositivo-móvel-borda-nuvem
dc.contributor.advisor | Beck Filho, Antonio Carlos Schneider | pt_BR |
dc.contributor.author | Uebel, Átila | pt_BR |
dc.date.accessioned | 2025-02-14T06:56:43Z | pt_BR |
dc.date.issued | 2025 | pt_BR |
dc.identifier.uri | http://hdl.handle.net/10183/285294 | pt_BR |
dc.description.abstract | As redes neurais e o aprendizado profundo se tornaram essenciais para uma ampla gama de aplicações de Inteligência Artificial (IA), abrangendo áreas como reconhecimento de imagens, processamento de linguagem natural e sistemas autônomos parciais ou totais. No entanto, a implementação desses modelos em dispositivos com capacidade computa cional limitada, como dispositivos móveis, representa um desafio significativo. Este trabalho se propõe, inicialmente, a introduzir as principais camadas de execução re lacionadas ao processamento de redes neurais em dispositivos móveis: processamento local no dispositivo móvel, processamento na borda e processamento na nuvem. Es sas camadas representam diferentes níveis de infraestrutura disponíveis para executar as tarefas computacionais. O processamento local ocorre diretamente no dispositivo móvel, oferecendo maior privacidade e menor dependência de conectividade, mas é limitado pela capacidade de hardware. O processamento na borda, realizado em servidores próximos ao dispositivo, busca reduzir a latência e melhorar a eficiência, aproveitando recursos in termediários entre o dispositivo e a nuvem. Já o processamento na nuvem disponibiliza poder computacional elevado e escalabilidade, mas sofre geralmente com maior latência devido à distância física e à dependência de rede. A existência dessas camadas é moti vada pela necessidade de balancear três fatores fundamentais: latência, capacidade de processamento e eficiência energética. Dispositivos móveis são limitados em capaci dade computacional e consumo de energia, mas demandas modernas, como redes neurais profundas, exigem grandes volumes de processamento. Dessa forma, as camadas permi tem escolher a melhor infraestrutura para executar cada tarefa, dependendo dos requisitos específicos de cada aplicação. Nesse contexto, será explorado o conceito de offloading, que consiste na transferência estratégica de cargas computacionais entre essas camadas para otimizar a execução das redes neurais. Existem diversas abordagens de offloading, que envolvem diferentes lo calizações de execução, incluindo a execução no próprio dispositivo, o offloading para servidores de borda, o offloading para servidores na nuvem, ou ainda a partição da carga de trabalho entre essas opções. No entanto, o foco principal deste estudo será realizar uma série de testes em um cenário simulado envolvendo o processamento total nos dis positivos móveis, servidores de borda e nuvem. Esses testes, juntamente com os dados de latência de rede, visam identificar “o melhor local de execução” para cada tipo de cenário, otimizando assim o desempenho das redes neurais. Ao longo deste trabalho, será demonstrado como a escolha de uma estratégia adequada de offloading é essencial para superar as limitações computacionais de dispositivos móveis, otimizando o desempenho das redes neurais e oferecendo uma solução eficiente para ce nários com restrições de hardware. | pt_BR |
dc.description.abstract | Deep neural networks and deep learning have become essential for a wide range of Ar tificial Intelligence (AI) applications, including image recognition, natural language pro cessing, and partially or fully autonomous systems. However, implementing these models on devices with limited computational capacity, such as mobile devices, represents a sig nificant challenge. This work initially aims to introduce the main execution layers related to neural network processing on mobile devices: local processing on the mobile device, edge processing, and cloud processing. These layers represent different levels of infrastructure available to perform computational tasks. Local processing occurs directly on the mobile device, offering greater privacy and less dependence on connectivity but limited by hardware ca pacity. Edge processing, carried out on servers close to the device, aims to reduce latency and improve efficiency by leveraging intermediate resources between the device and the cloud. Meanwhile, cloud processing provides high computational power and scalability but often suffers from higher latency due to physical distance and network dependency. These layers exist to balance three fundamental factors: latency, processing capacity, and energy efficiency. Mobile devices are constrained in computational capacity and en ergy consumption, yet modern demands such as deep neural networks require significant processing volumes. Thus, these layers allow selecting the best infrastructure to execute each task depending on the specific requirements of each application. In this context, the concept of offloading will be explored, which consists of strategically transferring computational loads between these layers to optimize neural network execu tion. Various offloading approaches involve different execution locations, including exe cution on the device itself, offloading to edge servers, offloading to cloud servers, or even partitioning the workload among these options. However, the primary focus of this study will be conducting a series of tests in a simulated scenario involving complete processing on mobile devices, edge servers, and cloud servers. These tests, along with network la tency data, aim to identify “the best execution location” for each type of scenario, thereby optimizing the performance of neural networks. Throughout this work, it will be demonstrated how choosing an appropriate offloading strategy is essential to overcome the computational limitations of mobile devices, optimizing the performance of neural networks and providing an efficient solution for hardware constrained scenarios. | en |
dc.format.mimetype | application/pdf | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | Open Access | en |
dc.subject | Redes neurais | pt_BR |
dc.subject | Offloading | en |
dc.subject | Aprendizado profundo | pt_BR |
dc.subject | Edge devices | en |
dc.subject | Dispositivos móveis | pt_BR |
dc.subject | Cloud servers | en |
dc.subject | Workload partitioning | en |
dc.subject | Inteligência artificial | pt_BR |
dc.subject | Execution time | en |
dc.subject | Power consumption | en |
dc.subject | Performance optimization | en |
dc.title | Explorando a descentralização para melhorar o desempenho das redes neurais no contínuo heterogêneo entre dispositivo-móvel-borda-nuvem | pt_BR |
dc.type | Trabalho de conclusão de graduação | pt_BR |
dc.identifier.nrb | 001241079 | pt_BR |
dc.degree.grantor | Universidade Federal do Rio Grande do Sul | pt_BR |
dc.degree.department | Instituto de Informática | pt_BR |
dc.degree.local | Porto Alegre, BR-RS | pt_BR |
dc.degree.date | 2025 | pt_BR |
dc.degree.graduation | Ciência da Computação: Ênfase em Engenharia da Computação: Bacharelado | pt_BR |
dc.degree.level | graduação | pt_BR |
Este item está licenciado na Creative Commons License

-
TCC Ciência da Computação (1072)