Job description
A Caju é uma empresa brasileira de tecnologia, que busca dar mais sabor à vida profissional, transformando a relação entre empresas e colaboradores por meio de soluções mais inovadoras e seguras como o Cartão Multi Benefícios, Solução em Despesas Corporativas, Premiações e Caju Ciclos.
Aqui na Caju, aprendemos sempre, e nos tornamos cada vez melhores em um ambiente colaborativo e divertido!
São muito bem-vindas candidaturas de pessoas negras/pretas, mulheres, indígenas, LGBTQIA+, ou outros grupos minorizados.
Inscreva-se e conheça mais sobre nosso time.
Main responsibilities
- Projetar e implementar pipelines de dados end-to-end, desde a extração de fontes de dados até a entrega aos sistemas de armazenamento e plataformas analíticas.
- Utilizar tecnologias de big data, como AWS e Databricks, para processar e transformar grandes volumes de dados de maneira eficiente e escalável.
- Configurar e otimizar ambientes de nuvem, como Amazon S3, Redshift, Data Catalog, bem como clusters de processamento de dados no Databricks.
- Desenvolver scripts e códigos para transformação, limpeza e agregação de dados, utilizando linguagens de programação como Python, PySpark e SQL.
- Garantir a segurança e conformidade dos dados, implementando políticas de controle de acesso e criptografia adequadas em conjunto com a governança de dados.
- Colaborar com as equipes de negócio e infraestrutura para monitorar e manter a integridade dos pipelines de dados, garantindo alta disponibilidade, desempenho e qualidade.
- Fornecer suporte técnico e resolução de problemas para problemas relacionados a dados e pipelines.
- Levantamento de necessidade com as áreas de negócios e documentação.
Requirements and skills
- Experiência comprovada em engenharia de dados e processamento de dados em ambientes de nuvem, preferencialmente utilizando AWS e Databricks.
- Habilidades sólidas de programação em Python, PySpark e SQL para desenvolvimento de pipelines de dados.
- Conhecimento das tecnologias AWS, como S3 e AWS DMS, Databricks, Redshift, Data Catalog, Airflow, DBT, GitHub, Kubernetes entre outras.
- Modelagem de Dados (Modelagem para BI/DataMart - Start Schema/Snowflake, Modelagem de dados para NoSQL).
- Experiência em otimização de desempenho de consultas e processamento distribuído.
- Familiaridade com metodologias de desenvolvimento ágil e ferramentas de controle de versão.
- Fortes habilidades de resolução de problemas e capacidade de trabalhar de forma independente.
- Excelentes habilidades de comunicação verbal e escrita para colaborar com equipes multifuncionais e explicar soluções técnicas de maneira clara.
Diferenciais:
- Conhecimento das tecnologia AWS: IAM, Terraform.
- Conhecimento sobre integração, API Rest e SFTP.
Additional information
Cartão Caju, com mais liberdade para usar seus benefícios (Refeição, Alimentação, Mobilidade, Saúde, Home Office, Cultura e Educação);
Plano de Saúde sem coparticipação;
️ Zenklub, com consultas online com terapeutas e coaches para cuidar da sua saúde mental;
️ Gympass;
️ Aqui também estimulamos o aprendizado de idiomas, com a parceria da Rosetta Stone;
Dia de recarregar - day off;
️ Conexa Saúde - consulta médica online;
Auxílio Creche;
Parceria com Alura;
Trabalho Remoto, para você trabalhar de onde quiser dentro do Brasil;
Oferecemos equipamento de trabalho;
Muitas possibilidades de crescimento - temos muito a crescer e esperamos fortemente que você nos ajude com isso!
A Caju é uma empresa brasileira e aceita pessoas de todas as regiões do país.
Trabalhamos em um modelo 100% remoto (quem tiver interesse de conhecer ou trabalhar no escritório, localizado em São Paulo, estaremos de portas abertas)
Se interessou? #VemSerCaju