Skip to content

Data Engineering code: User session counting on user events grouped by key

Notifications You must be signed in to change notification settings

Coqueiro/session-calc-spark

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

29 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Data Engineer Code Challenge

Tests codecov Release

TL;DR: Rodar na raiz do projeto:

make pull_docker_spark
make pull_app
make test_app
GROUP_KEY={chave_de_grupamento} make -k session_calc # [browser_family, os_family, device_family]

Os arquivos de resultado são gravados no endereço local ./session-calc/output.

Contagem de sessões de usuários agrupadas por chave

Este job tem o objetivo de realizar a contagem de sessões de usuários agrupadas por uma escolha de chave, utilizando um job em pyspark para extrair os dados de um bucket público da S3 e criar um .json em disco com os agrupamentos pivotados por chave.

Exemplo de dados na S3:

{"anonymous_id":"84CC8775-0E38-4787-A4FF-DD66CCFCF956","device_sent_timestamp":1554767994401,"browser_family":"Other","os_family":"Other","device_family":"Other"}
{"anonymous_id":"84CC8775-0E38-4787-A4FF-DD66CCFCF956","device_sent_timestamp":1554767994740,"name":"Property Full Screen Gallery","browser_family":"Other","os_family":"Other","device_family":"Other"}
{"anonymous_id":"569D7BC4-1C63-45C1-A1B6-59818D5B8C9D","device_sent_timestamp":1554767981430,"browser_family":"Other","os_family":"Other","device_family":"Other"}

Exemplo de saída de dados utilizando a chave de agrupamento device_family:

{"iPhone":42,"Generic Smartphone":12,"Samsung SM-J120H":7,"Samsung SM-J500M":4}

Este projeto se utiliza de código presente nos seguintes repositórios:

Setup

make pull_app
make pull_docker_spark
  • Alternativamente, as imagens podem ser buildadas localmente utilizando os seguintes comandos na raiz do projeto:
make build_app
make build_docker_spark

Rodar o job localmente

  • É necessário escolher qual a chave que será utilizada para o agrupamento dentre as seguintes opções (de acordo com o desafio proposto):

    • browser_family (Família do Browser usado pelo usuário)
    • os_family (Família do Sistema Operacional usado pelo usuário)
    • device_family (Família do Dispositivo usado pelo usuário)
  • Uma vez escolhida a chave de agrupamento, a mesma pode ser passada através da variável de ambiente GROUP_KEY. O comando make -k session_calc calcula os agrupamentos de sessões. Exemplo de utilização:

GROUP_KEY=os_family make -k session_calc
  • Existem algumas opções de parâmetros que o job também aceita como variáveis de ambiente, essas variáveis possuem valores padrões e alguns destes valores são determinados pelo desafio. Segue lista das variáveis de execução, seus valores padrões e suas descrições:
Parâmetro Valor Padrão Descrição
READ_PATH s3a:https://lucas-spark-read-test/ Endereço de leitura dos arquivos de eventos. Pode ser um endereço na S3 ou local do container (é necessário adicionar como volume).
WRITE_PATH output Endereço local de escrita do resultado do agrupamento, relativo à pasta session-calc. O endereço padrão já está volumado no container, portanto os resultados já serão expostos fora do mesmo. Um endereço alternativo pode exigir uma adição de volume durante a execução.
USER_KEY anonymous_id A chave única de referência do usuário. No momento a aplicação só dá suporte para um valor de chave.
TIMESTAMP_KEY device_sent_timestamp A chave de referência de quando o evento foi realizado. Ela é usada para identificar as janelas de sessões do usuário.
MAX_SESSION_SECONDS 1800 Tempo máximo de uma sessão, por usuário. Essa chave está com o padrão de 30 minutos.
GROUP_KEY device_family Chave de agrupamento para contagem de sessões.
  • Ao final da execução da aplicação, os resultados estarão disponíveis dentro do endereço local WRITE_PATH, em arquivos do tipo .json de acordo com a opção de chave de agrupamento, no padrão session_by_{GROUP_KEY}.json. Exemplo de arquivo: sessions_by_device_family.json.

Rodar os testes

Existe um fluxo de CI de cobertura de testes ativado a cada commit deste repositório, automatizando a verificação de testes.

  • Para rodar os testes unitários da aplicação manualmente é necessário utilizar o comando make test_app, que irá validar as funções auxiliares utilizadas pela aplicação assim como a própria aplicação. Este comando utiliza uma imagem simples com pyspark para realizar os testes localmente.

  • A versão atual não possui testes de integração.

Fazendo release das imagens

Existe um fluxo de CI de release ativado a cada commit na branch master deste repositório, automatizando o CI das imagens Docker.

  • Para atualizar as imagens manualmente e torná-las disponíveis através do repositório de imagens Docker Hub é necessário realizar o comando make release_app para a aplicação ou make release_docker_spark para as imagens do cluster de Spark em Docker.

  • Atualizações no projeto devem ser antecedidas de bumps de versão nas imagens para manter a consistência do projeto, utilizando o comando make bump_app para a aplicação ou make bump_docker_spark para as imagens do cluster de Spark em Docker.

  • Os seguintes parâmetros podem ser utilizados para alterar o release da imagem. É recomendado que essas mudanças sejam feitas com cautela por alterarem componentes estruturais da solução:

Parâmetro Valor Padrão Descrição
HUB_PUBLISHER coqueirotree Usuário dos repositórios no Docker Hub.
HUB_PASSWORD $(shell cat .hub_password) Token de acesso do Docker Hub.
SPARK_VERSION 2.4.4 Versão de Spark utilizada pelas imagens.
HADOOP_VERSION 3.1.2 Versão de Hadoop utilizada pelas imagens.
BUMP_LEVEL patch Nível de bump na versão da imagem, utilizado em novos releases. As opções são patch, minor e major. Para rodar este comando é necessário ter uma instalação de python local com o gerenciador de pacotes pip.
  • O arquivo .hub_password precisa ser criado e colocado dentro da pasta raiz do projeto. Ele deve conter o token de acesso para o repositório de imagens Docker Hub, para que então seja possível realizar comandos de push localmente.

Análise exploratória de dados

O objetivo desta breve análise é entender melhor o dataset de entrada, e adaptar a solução de acordo com os dados disponíveis. Para rodar a análise exploratória, basta executar o comando make -k eda.

Descobertas relevantes

  • Não existem campos com valores nulos dentro da amostra. Confiando que este padrão é significante, não iremos adicionar etapas de filtros de dados vazios, a fim de otimizar a execução da aplicação.

  • Um mesmo anonymous_id pode ter mais de um browser_family, device_family ou os_family diferentes, com 393 ocorrências na amostra. Isto significa que uma sessão pode percorrer agrupamentos diferentes, e poderia ser, portanto, contada em mais de um agrupamento. Levando em consideração que a regra de sessionamento inclui que a abertura da sessão acontece para o primeiro evento de um usuário, e que a taxa de ocorrência desses casos é muito pequena, iremos desconsiderar mudanças de browser_family, device_family ou os_family durante a sessão.

About

Data Engineering code: User session counting on user events grouped by key

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published