Construir pipelines de dados conforme demandado pelo negócio;
Realizar todo o ciclo de vida do dado, desde as extrações, transformações de dados e integração dos dados da empresa entre estruturas e sistemas internos e estruturas e sistemas terceiros;
Otimizar e manter pipelines de dados, além de atuar na estruturação e arquitetura de dados para suportar as necessidades de análise e tomada de decisão da empresa e do crescimento do volume de operações e dados da empresa;
Experiência em design, privacy by design e privacy by default, além de desenvolvimento seguro, para implementação e manutenção de soluções robustas, seguras e escaláveis de dados;
Criar e manter a arquitetura de dados da empresa, assegurando a qualidade, escalabilidade e integridade dos dados, compreendendo o ambiente de servidores físicos e em nuvem e mantendo sinergia com as áreas de infraestrutura e segurança;
Atender chamados e projetos relativos à estrutura de dados da empresa, assim como indicadores, SLAs e cronogramas previamente estabelecidos;
Propor evoluções e inovações na estrutura de bancos de dados como bancos de dados, data lake e data warehouse, visando segurança, escalabilidade e integridade dos dados;
Trabalhar, conduzir reuniões e interagir com equipes de Inteligência e de Negócios para garantir que os dados atendam às necessidades analíticas e de relatórios da empresa;
Projetar e implementar soluções de governança de dados e políticas de segurança e privacidade em todo o ciclo do dado (bronze, prata e ouro);
Avaliar e implementar novas ferramentas e tecnologias de dados, sempre visando melhorar a performance e a qualidade dos dados;
Desenvolver e aplicar processos de auditoria e qualidade de dados, assegurando que os dados sejam precisos e consistentes e validados frequentemente;
Colaborar com stakeholders internos para entender requisitos de dados e traduzir esses requisitos em soluções de arquitetura de dados eficientes;
Documentar processos, arquiteturas e fluxos de dados, garantindo a transparência e a facilidade de manutenção;
Participar das cerimônias do time e da liderança para acompanhamento do roadmap do time, indicadores de produtividade e eficiência.
VOCÊ DEVE POSSUIR:Proficiência em SQL, além de experiência com ferramentas de ETL/ELT, como Apache Kafka, Apache Airflow, Talend;
Experiência em plataformas de big data, como Hadoop, Spark, AWS (Redshift, S3, Glue), Azure (Data Lake, Synapse);
Conhecimento profundo de modelagem de dados, tanto relacional quanto não relacional (NoSQL), e design de bases de dados escaláveis e de alto desempenho;
Experiência em sistemas de gerenciamento de dados e soluções de warehousing, como Snowflake, Redshift, BigQuery, etc;
Conhecimento em programação em Python, Java ou Scala, com foco em automação de processos e análise de grandes volumes de dados;
Experiência em ferramentas de orquestração de dados, como Airflow, Luigi ou outras;
Conhecimento em práticas de Data Governance, Data Quality, e Compliance;
Formação completa em Ciências da Computação, Engenharia da Computação, Sistemas da Informação ou áreas correlatas;
Pós-graduação em Engenharia de Dados e certificações em cloud (AWS, Azure, GCP) ou em ferramentas específicas de dados, é um diferencial.
ALGUNS BENEFÍCIOS, CONVENIÊNCIAS E PARCERIAS PRA VOCÊ APROVEITAR A JORNADA COM A GENTE:Possibilidade de Partnership;
Oportunidades de trilhas de carreiras e aprendizado através de desafios on the job ;
Dayoff no seu aniversário;
Avaliação de desempenho semestral;
Pesquisa de clima;
Licença-maternidade e licença-paternidade diferenciadas do mercado;
Short Friday;
Café e frutas todos os dias no escritório;
Parceria com estabelecimentos da região.