Projetar, desenvolver e manter pipelines de dados escaláveis e eficientes;
Desenvolver códigos e soluções com foco em clean code, boas práticas e eficiência;
Trabalhar com grandes volumes de dados, implementando estratégias eficazes de ingestão e processamento;
Colaborar com as equipes de engenharia, ciência de dados e análise para desenvolver soluções de dados que impulsionem a eficiência e tomada de decisão orientada por dados.
O que buscamos?
Graduação completa;
Conhecimento em Python e lógica de programação;
Conhecimento de Spark e capacidade de implementar e otimizar jobs em pyspark;
Familiaridade em serviços de dados em nuvem (AWS, Azure ou GCP);
Familiaridade com versionamento de código com Git e utilização de esteiras de CI/CD;
Conhecimento em clean code, boas práticas de desenvolvimento e implementação de testes automatizados;
Habilidades de resolução de problemas e capacidade de trabalhar em um ambiente inovador;
Capacidade de trabalhar de forma autônoma e em equipe, demonstrando habilidades de comunicação e colaboração.
Quais diferenciais buscamos?
Conhecimento em Apache Airflow para orquestração de pipelines de dados;
Conhecimento em serviços de dados em AWS (Glue, Lambda, SQS/SNS, S3, EMR, etc);
Conhecimento em ferramentas de visualização de dados (Tableau, Superset, etc);
Conhecimento em programação orientada à objetos.
O que oferecemos?
Vale Alimentação/Vale Refeição;
Plano de Saúde;
Plano Odontológico;
Seguro de Vida;
Gympass;
Vale Transporte;
Auxílio Creche ou Auxílio filhos com deficiência;
Assinatura Duo Gourmet.
Obtém a tua avaliação gratuita e confidencial do currículo.