Construção e Manutenção de Pipelines de Dados: Desenvolver, implementar e gerenciar pipelines para extração, transformação e carregamento de dados (ETL/ELT). Garantir a qualidade, consistência e integridade dos dados processados.
Modelagem e Armazenamento de Dados: Criar e manter estruturas de dados eficientes (bancos de dados relacionais e não relacionais, data warehouses e data lakes). Implementar soluções de armazenamento em GCP.
Otimização de Performance: Monitorar e otimizar a performance das bases de dados e pipelines para melhorar a eficiência e reduzir custos. Implementar processos de escalabilidade para grandes volumes de dados.
Integração de Dados: Integrar dados de múltiplas fontes, como sistemas internos, APIs externas, streaming e arquivos. Garantir que os dados estejam disponíveis para uso por analistas e cientistas de dados.
Governança e Segurança de Dados: Implementar políticas de governança, controle de acesso e segurança de dados. Garantir a conformidade com regulamentações (ex.: LGPD, GDPR).
Automação de Processos: Desenvolver automações para ingestão e processamento de dados em tempo real e batch. Criar scripts e ferramentas para otimizar workflows de dados.
Necessário:
Conhecimento de BigQuery e GCP (Google Cloud Platform)
Obtém a tua avaliação gratuita e confidencial do currículo.