Precificação dinâmica baseada em reinforcement learning : um experimento no varejo supermercadista
Visualizar/abrir
Data
2022Autor
Orientador
Nível acadêmico
Graduação
Assunto
Resumo
Os processos tradicionais de precificação não garantem a otimização dos preços praticados porque foram construídos para cenários com baixa complexidade e não exploram o poder computacional disponível na atualidade. Em um varejista supermercadista, por exemplo, podem existir milhares de produtos disponíveis em centenas de estabelecimentos, tornando o cenário extremamente complexo. A administração de preços nas empresas, ao invés de dirigir esforços à otimização, muitas vezes acaba por adotar uma ...
Os processos tradicionais de precificação não garantem a otimização dos preços praticados porque foram construídos para cenários com baixa complexidade e não exploram o poder computacional disponível na atualidade. Em um varejista supermercadista, por exemplo, podem existir milhares de produtos disponíveis em centenas de estabelecimentos, tornando o cenário extremamente complexo. A administração de preços nas empresas, ao invés de dirigir esforços à otimização, muitas vezes acaba por adotar uma postura conservadora, optando por cobrir custos e incluir a margem do setor que, diferente do comportamento da demanda para cada produto em cada loja, é estática. Este trabalho buscou desenvolver uma estratégia de precificação dinâmica para maximização de margem de contribuição no varejo supermercadista utilizando reinforcement learning, considerando a solução como um problema de multi-armed bandits, através da implementação do algoritmo Thompson Sampling para controle do exploration-exploitation tradeoff. Verificou-se durante a utilização do algoritmo proposto o aumento da margem de contribuição diária média para todos os três produtos participantes do experimento no varejista supermercadista. As conclusões sobre o tema mostram a relevância da utilização de técnicas de machine learning para otimização da métrica de interesse, proporcionando soluções escaláveis que permitem uma melhor alocação de recursos organizacionais. ...
Abstract
Traditional pricing processes do not guarantee the optimization of prices because they were built for low-complexity scenarios and do not exploit the computing power currently available. In a supermarket retailer, for example, there may be thousands of products available in hundreds of establishments, making the scenario extremely complex. Instead of directing efforts towards optimization, price management in companies often ends up adopting a conservative stance, choosing to cover costs and in ...
Traditional pricing processes do not guarantee the optimization of prices because they were built for low-complexity scenarios and do not exploit the computing power currently available. In a supermarket retailer, for example, there may be thousands of products available in hundreds of establishments, making the scenario extremely complex. Instead of directing efforts towards optimization, price management in companies often ends up adopting a conservative stance, choosing to cover costs and include the sector's margin which, unlike the behavior of demand for each product in each store, is static. This work sought to develop a dynamic pricing strategy to maximize contribution margin in supermarket retail using reinforcement learning, considering the solution as a multi-armed bandits problem, through the implementation of the Thompson Sampling algorithm to control the exploration-exploitation tradeoff. During the use of the proposed algorithm, the increase in the average daily contribution margin for all three products participating in the experiment at the supermarket retailer was verified. The conclusions on the subject show the relevance of u sing machine learning techniques to optimize the metric of interest, providing scalable solutions that allow a better allocation of organizational resources ...
Instituição
Universidade Federal do Rio Grande do Sul. Escola de Administração. Curso de Administração.
Coleções
-
TCC Administração (3140)
Este item está licenciado na Creative Commons License