Analista de BI Pleno | TRACK&FIELD | São Paulo

Faz parte dos primeiros candidatos.
Track&Field
São Paulo
BRL 80.000 - 120.000
Faz parte dos primeiros candidatos.
Há 2 dias
Descrição da oferta de emprego

Job description

Missão da Área:

Capacitar a organização a tomar decisões informadas por meio da transformação de dados brutos em informações significativas, utilizando técnicas avançadas de BI e análise de dados, em colaboração com a engenharia de dados. Garantir que os dados sejam de alta qualidade, acessíveis e preparados adequadamente para análises e relatórios, fornecendo insights que impulsionem a eficiência, inovação e competitividade.

Sua missão:

Projetar, desenvolver e manter pipelines de dados robustos e escaláveis na plataforma Azure, garantindo a integração eficiente de dados provenientes de diversas fontes. Trabalhar de forma colaborativa com as equipes de BI e Analytics para fornecer dados confiáveis e bem estruturados, com foco em soluções que atendam às necessidades de análise e visualização de dados, otimizando a governança e a performance em toda a infraestrutura de dados.


Main responsibilities

Quais serão suas responsabilidades?

  1. Desenvolvimento e Manutenção de Pipelines de Dados:
  • Projetar, implementar e gerenciar pipelines de dados no Azure Data Factory e outras ferramentas da plataforma Azure.
  • Criar processos de ETL (Extração, Transformação e Carga) eficientes e escaláveis, garantindo o fluxo contínuo de dados entre sistemas internos e externos.
  • Gerenciar integrações de dados em tempo real e batch, utilizando ferramentas como Azure Stream Analytics e Azure Event Hubs.
  • Armazenamento e Processamento de Dados:
    • Organizar dados estruturados e semiestruturados de forma eficiente, utilizando Azure Data Lake Storage, Azure Blob Storage e Azure SQL Database.
    • Trabalhar com soluções de processamento de dados como Azure Synapse Analytics e Azure Databricks para otimizar a performance das consultas e o uso de grandes volumes de dados.
    • Implementar soluções de arquivamento e backup adequadas para garantir a integridade e segurança dos dados.
  • Qualidade e Governança de Dados:
    • Garantir que os dados sejam consistentes, precisos e de alta qualidade ao longo de todo o pipeline, realizando validações e transformações adequadas.
    • Colaborar com as equipes de governança de dados e BI para aplicar padrões de qualidade, segurança e conformidade em todos os processos.
    • Monitorar o cumprimento das políticas de governança e garantir que os dados sejam acessados de maneira segura e controlada.
  • Otimização de Performance e Custos:
    • Realizar monitoramento contínuo do desempenho das soluções implementadas, otimizando o uso de recursos para melhorar a performance e reduzir custos operacionais.
    • Trabalhar na automação de tarefas repetitivas, como processos de batch processing e escalabilidade dinâmica.
  • Colaboração com Equipes de BI e Analytics:
    • Trabalhar em estreita colaboração com equipes de Business Intelligence e Analytics para entender os requisitos de dados e garantir que a infraestrutura de dados atenda às necessidades de análise.
    • Fornecer suporte na definição de requisitos de dados para dashboards, relatórios e outras soluções de análise no Power BI ou outras ferramentas de visualização.
  • Documentação e Melhoria Contínua:
    • Criar e manter documentação técnica clara sobre a arquitetura de dados, pipelines, transformações e outras soluções implementadas.
    • Participar de revisões de código e processos de melhorias contínuas, buscando inovação e eficiência nas soluções de dados.
  • Monitoramento e Troubleshooting:
    • Monitorar o estado dos pipelines e resolver problemas técnicos relacionados ao fluxo de dados, identificando e corrigindo falhas rapidamente.
    • Utilizar ferramentas de monitoramento como Azure Monitor para analisar logs, alertas e métricas de desempenho.

    Requirements and skills

    Experiência em:

    • Plataformas e Serviços Azure:
      • Azure Data Factory (ADF): Para orquestrar e automatizar pipelines de dados (ETL/ELT). Conhecimento sobre como criar, agendar e monitorar workflows de dados.
      • Azure Synapse Analytics: Para integração de dados, análise e processamento em grande escala. Compreensão de como usar Synapse para Big Data e análise de dados em larga escala.
      • Azure Databricks: Experiência com Apache Spark no Azure para análise de dados em tempo real e em batch, integração com Python, Scala ou SQL.
      • Azure Data Lake Storage (ADLS) e Azure Blob Storage: Para armazenar grandes volumes de dados não estruturados e estruturados de forma escalável e segura.
    • Linguagens de Programação e Scripts:
      • SQL: Proficiência em SQL para consulta, manipulação e transformação de dados em bancos de dados relacionais (como Azure SQL Database, Synapse Analytics, etc.).
      • Python: Para automação, transformação de dados, criação de scripts e integração com ferramentas de dados. Usado frequentemente para processamento de dados no Azure Databricks.
      • Spark SQL: Usado no Azure Databricks para consultas SQL no contexto de Big Data.
    • Ferramentas de BI e Análise de Dados:
      • Power BI: Conhecimento sobre integração de dados, criação de relatórios e dashboards para visualização de dados analíticos.
      • Azure Analysis Services (opcional): Para criar modelos de dados analíticos em larga escala e otimizados para consumo de BI.
    • Engenharia de Dados e Arquitetura:
      • ETL/ELT: Experiência na criação de processos de ETL (extração, transformação e carga) ou ELT (extração, carga e transformação) para integração de dados.
      • Modelagem de Dados: Compreensão de como modelar dados para análise, incluindo conceitos como esquemas estrela, floco de neve e tabelas de fatos e dimensões.
      • Armazenamento de Dados: Conhecimento sobre diferentes tipos de armazenamento de dados (relacional e não relacional), bem como os princípios de data lakes, data warehouses e data marts.
    • Processamento e Transformação de Dados:
      • Data Lakes e Data Warehousing: Entendimento intermediário das arquiteturas de Data Lake e Data Warehouse, e como essas soluções são usadas para armazenar e analisar grandes volumes de dados.
    • Governança e Qualidade de Dados:
      • Governança de Dados: Conhecimento sobre práticas de governança de dados, como catalogação, auditoria, segurança e conformidade (GDPR, LGPD).
      • Qualidade de Dados: Conhecimento sobre técnicas para garantir que os dados sejam limpos, consistentes, completos e precisos. Uso de ferramentas de validação e monitoramento de dados.
    • Monitoramento e Otimização:
      • Azure Monitor e Log Analytics: Habilidade para configurar e usar ferramentas de monitoramento para identificar problemas e otimizar a performance dos pipelines e das soluções de dados.
      • Otimização de Performance: Conhecimento em boas práticas de desempenho para consultas em grande escala, como indexação, particionamento de dados e ajuste de consultas no Azure Synapse e Azure SQL Database.
    • Conceitos de Arquitetura de Nuvem e Escalabilidade:
      • Arquitetura de Nuvem: Entendimento dos princípios de arquitetura em nuvem e como planejar soluções escaláveis no Azure, incluindo escalabilidade horizontal e vertical.
      • Escalabilidade de Dados: Capacidade de planejar e implementar soluções que podem crescer conforme a demanda de dados aumenta, aproveitando as capacidades de elasticidade do Azure.
    • Segurança e Controle de Acesso:
      • Azure Security: Conhecimento sobre as práticas de segurança no Azure, incluindo autenticação, autorização, e controle de acesso com Azure Active Directory e Role-Based Access Control (RBAC).
      • Criptografia e Proteção de Dados: Entendimento das opções de criptografia no Azure e práticas para proteger dados em repouso e em trânsito.
    • Ferramentas de Automação e CI/CD:
      • Azure DevOps ou Git: Experiência com pipelines de CI/CD para automação de deploys e versionamento de código de dados.
      • Automatização de Tarefas: Habilidade para automatizar tarefas de integração e processamento de dados, reduzindo a intervenção manual e aumentando a eficiência.

    O que você precisa ter:

    Graduação Concluída em áreas correlatas.


    Additional information

    Local: São Paulo - Itaim Bibi

    #PapoReto: Nossa seleção já está rolando! E aí, vem com a gente?

    Inscrição e análise das candidaturas

    Bate-papo com a pessoa recrutadora

    Entrevistas

    Feedbacks e/ou proposta, retorno sobre o processo.

    # Conheça mais de nossos processos seletivos acompanhando nossa pagina de carreira: https://tfcarreira.gupy.io/

    Obtém a tua avaliação gratuita e confidencial do currículo.
    Seleciona o ficheiro ou arrasta e larga-o
    Avatar
    Coaching online gratuito
    Melhora as tuas possibilidades de receberes um convite para entrevista!
    Torna-te numa das primeiras pessoas a explorar as novas ofertas de Analista de BI Pleno | TRACK&FIELD | São Paulo em São Paulo