Job description
Missão da Área:
Capacitar a organização a tomar decisões informadas por meio da transformação de dados brutos em informações significativas, utilizando técnicas avançadas de BI e análise de dados, em colaboração com a engenharia de dados. Garantir que os dados sejam de alta qualidade, acessíveis e preparados adequadamente para análises e relatórios, fornecendo insights que impulsionem a eficiência, inovação e competitividade.
Sua missão:
Projetar, desenvolver e manter pipelines de dados robustos e escaláveis na plataforma Azure, garantindo a integração eficiente de dados provenientes de diversas fontes. Trabalhar de forma colaborativa com as equipes de BI e Analytics para fornecer dados confiáveis e bem estruturados, com foco em soluções que atendam às necessidades de análise e visualização de dados, otimizando a governança e a performance em toda a infraestrutura de dados.
Main responsibilities
Quais serão suas responsabilidades?
- Desenvolvimento e Manutenção de Pipelines de Dados:
- Projetar, implementar e gerenciar pipelines de dados no Azure Data Factory e outras ferramentas da plataforma Azure.
- Criar processos de ETL (Extração, Transformação e Carga) eficientes e escaláveis, garantindo o fluxo contínuo de dados entre sistemas internos e externos.
- Gerenciar integrações de dados em tempo real e batch, utilizando ferramentas como Azure Stream Analytics e Azure Event Hubs.
Armazenamento e Processamento de Dados:- Organizar dados estruturados e semiestruturados de forma eficiente, utilizando Azure Data Lake Storage, Azure Blob Storage e Azure SQL Database.
- Trabalhar com soluções de processamento de dados como Azure Synapse Analytics e Azure Databricks para otimizar a performance das consultas e o uso de grandes volumes de dados.
- Implementar soluções de arquivamento e backup adequadas para garantir a integridade e segurança dos dados.
Qualidade e Governança de Dados:- Garantir que os dados sejam consistentes, precisos e de alta qualidade ao longo de todo o pipeline, realizando validações e transformações adequadas.
- Colaborar com as equipes de governança de dados e BI para aplicar padrões de qualidade, segurança e conformidade em todos os processos.
- Monitorar o cumprimento das políticas de governança e garantir que os dados sejam acessados de maneira segura e controlada.
Otimização de Performance e Custos:- Realizar monitoramento contínuo do desempenho das soluções implementadas, otimizando o uso de recursos para melhorar a performance e reduzir custos operacionais.
- Trabalhar na automação de tarefas repetitivas, como processos de batch processing e escalabilidade dinâmica.
Colaboração com Equipes de BI e Analytics:- Trabalhar em estreita colaboração com equipes de Business Intelligence e Analytics para entender os requisitos de dados e garantir que a infraestrutura de dados atenda às necessidades de análise.
- Fornecer suporte na definição de requisitos de dados para dashboards, relatórios e outras soluções de análise no Power BI ou outras ferramentas de visualização.
Documentação e Melhoria Contínua:- Criar e manter documentação técnica clara sobre a arquitetura de dados, pipelines, transformações e outras soluções implementadas.
- Participar de revisões de código e processos de melhorias contínuas, buscando inovação e eficiência nas soluções de dados.
Monitoramento e Troubleshooting:- Monitorar o estado dos pipelines e resolver problemas técnicos relacionados ao fluxo de dados, identificando e corrigindo falhas rapidamente.
- Utilizar ferramentas de monitoramento como Azure Monitor para analisar logs, alertas e métricas de desempenho.
Requirements and skills
Experiência em:
- Plataformas e Serviços Azure:
- Azure Data Factory (ADF): Para orquestrar e automatizar pipelines de dados (ETL/ELT). Conhecimento sobre como criar, agendar e monitorar workflows de dados.
- Azure Synapse Analytics: Para integração de dados, análise e processamento em grande escala. Compreensão de como usar Synapse para Big Data e análise de dados em larga escala.
- Azure Databricks: Experiência com Apache Spark no Azure para análise de dados em tempo real e em batch, integração com Python, Scala ou SQL.
- Azure Data Lake Storage (ADLS) e Azure Blob Storage: Para armazenar grandes volumes de dados não estruturados e estruturados de forma escalável e segura.
- Linguagens de Programação e Scripts:
- SQL: Proficiência em SQL para consulta, manipulação e transformação de dados em bancos de dados relacionais (como Azure SQL Database, Synapse Analytics, etc.).
- Python: Para automação, transformação de dados, criação de scripts e integração com ferramentas de dados. Usado frequentemente para processamento de dados no Azure Databricks.
- Spark SQL: Usado no Azure Databricks para consultas SQL no contexto de Big Data.
- Ferramentas de BI e Análise de Dados:
- Power BI: Conhecimento sobre integração de dados, criação de relatórios e dashboards para visualização de dados analíticos.
- Azure Analysis Services (opcional): Para criar modelos de dados analíticos em larga escala e otimizados para consumo de BI.
- Engenharia de Dados e Arquitetura:
- ETL/ELT: Experiência na criação de processos de ETL (extração, transformação e carga) ou ELT (extração, carga e transformação) para integração de dados.
- Modelagem de Dados: Compreensão de como modelar dados para análise, incluindo conceitos como esquemas estrela, floco de neve e tabelas de fatos e dimensões.
- Armazenamento de Dados: Conhecimento sobre diferentes tipos de armazenamento de dados (relacional e não relacional), bem como os princípios de data lakes, data warehouses e data marts.
- Processamento e Transformação de Dados:
- Data Lakes e Data Warehousing: Entendimento intermediário das arquiteturas de Data Lake e Data Warehouse, e como essas soluções são usadas para armazenar e analisar grandes volumes de dados.
- Governança e Qualidade de Dados:
- Governança de Dados: Conhecimento sobre práticas de governança de dados, como catalogação, auditoria, segurança e conformidade (GDPR, LGPD).
- Qualidade de Dados: Conhecimento sobre técnicas para garantir que os dados sejam limpos, consistentes, completos e precisos. Uso de ferramentas de validação e monitoramento de dados.
- Monitoramento e Otimização:
- Azure Monitor e Log Analytics: Habilidade para configurar e usar ferramentas de monitoramento para identificar problemas e otimizar a performance dos pipelines e das soluções de dados.
- Otimização de Performance: Conhecimento em boas práticas de desempenho para consultas em grande escala, como indexação, particionamento de dados e ajuste de consultas no Azure Synapse e Azure SQL Database.
- Conceitos de Arquitetura de Nuvem e Escalabilidade:
- Arquitetura de Nuvem: Entendimento dos princípios de arquitetura em nuvem e como planejar soluções escaláveis no Azure, incluindo escalabilidade horizontal e vertical.
- Escalabilidade de Dados: Capacidade de planejar e implementar soluções que podem crescer conforme a demanda de dados aumenta, aproveitando as capacidades de elasticidade do Azure.
- Segurança e Controle de Acesso:
- Azure Security: Conhecimento sobre as práticas de segurança no Azure, incluindo autenticação, autorização, e controle de acesso com Azure Active Directory e Role-Based Access Control (RBAC).
- Criptografia e Proteção de Dados: Entendimento das opções de criptografia no Azure e práticas para proteger dados em repouso e em trânsito.
- Ferramentas de Automação e CI/CD:
- Azure DevOps ou Git: Experiência com pipelines de CI/CD para automação de deploys e versionamento de código de dados.
- Automatização de Tarefas: Habilidade para automatizar tarefas de integração e processamento de dados, reduzindo a intervenção manual e aumentando a eficiência.
O que você precisa ter:
Graduação Concluída em áreas correlatas.
Additional information
Local: São Paulo - Itaim Bibi
#PapoReto: Nossa seleção já está rolando! E aí, vem com a gente?
Inscrição e análise das candidaturas
Bate-papo com a pessoa recrutadora
Entrevistas
Feedbacks e/ou proposta, retorno sobre o processo.
# Conheça mais de nossos processos seletivos acompanhando nossa pagina de carreira: https://tfcarreira.gupy.io/