Como eu construí um agente que monitora preço de jogos retro
Nessas férias, eu adquiri um novo hobby: colecionar jogos retro. Bateu aquele sentimento nostálgico de quando eu jogava Nintendo 64, pokemon e descobri um verdadeiro mercado de retro games no Brasil.
No Youtube, diariamente tem lives de vendas desses jogos, tipo a tendência de Live Commerce que tem forte na China. O apresentador mostra um produto, dá o preço, quem comenta primeiro reserva o produto para comprar.
Eu pensei: “tem espaço pra gambiarra aqui”.
Pensando em monitorar o preço dos jogos que estão na minha lista de desejos, criei um agente que extrai de diferentes lives. Assim, eu consigo ter uma noção de preço de mercado fora dos lugares comuns de compra e venda, tipo OLX, Mercado Livre e Marketplace do Facebook.
Pra você que não tem nada a ver com jogos retro, essa gambiarra é uma forma de você organizar informações não estruturadas de vídeos de longa duração (mais de 1 hora de duração), então você ainda vai extrair algo da gambiarra. Bora lá?
O que você precisa de ferramenta para a Gambiarra?
Para implementar essa gambiarra, foram utilizadas as seguintes ferramentas:
Apify: Para transcrever automaticamente as lives e extrair informações relevantes.
Modelo de IA (Claude): Responsável por interpretar as transcrições e estruturar os dados.
Planilha ou Banco de Dados: Para armazenar os itens anunciados, suas categorias, preços e outras informações.
Make: Para fazer a divisão das transcrições em blocos menores para garantir que nenhum dado seja perdido durante a análise, além de integrar as ferramentas.
Passo a passo da Gambiarra
Configuração do Apify:
Ativar o ator responsável por monitorar vídeos específicos no YouTube.
Configurar filtros para extrair apenas as transcrições das lives relevantes.
Divisão da Transcrição:
Quebrar o texto gerado em quatro blocos iguais para facilitar a análise pela IA.
Criar um loop que processa cada bloco separadamente.
Uso do Modelo de IA:
Analisar cada bloco da transcrição para identificar itens vendidos, categorias, consoles e preços.
Retornar os resultados no formato JSON estruturado.
Armazenamento dos Dados:
Inserir as informações extraídas em uma planilha ou banco de dados com campos como data da live, canal, título, URL e detalhes dos itens anunciados.
Automatização Semanal:
Configurar o sistema para rodar semanalmente e garantir que todas as lives recentes sejam processadas.
Destaques do Growth Digest da Semana
The price of your product is wrong. Autora: Elena Verna. A newsletter de Elena Verna discute falhas comuns nas decisões de precificação, como depender da opinião de executivos ou dados qualitativos. Ela sugere abordagens para otimizar preços, destacando a necessidade de lidar com a fricção percebida e testar com novos usuários, com uma ênfase contínua na adaptação do modelo de preços.
Our first try at PLG nearly failed. Here's what we did next. Autor: Raman Khanna. Na edição, Raman Khanna e Natalie Marcotullio da Navattic discutem como aumentaram a taxa de ativação de 5% para 33% e a conversão de gratuito para pago de 1-2% para 5% através de ajustes na experiência de onboarding e na interação do usuário com o produto. Eles enfatizam a importância de dados qualitativos e quantitativos na otimização do crescimento.
What's changing with AI monetization Autor: Kyle Poyar. A monetização de IA está evoluindo com novos modelos, como preços baseados em resultados e habilidades. Empreendimentos estão abandonando assinaturas tradicionais por opções mais dinâmicas, como pagamentos por produtividade. OpenAI e startups como Sierra e Cognition estão na vanguarda dessas mudanças de preços.