Descrição da vaga
Sobre a AlmapBBDO
QUEM SOMOS!
#1 Agência Global da Década - Cannes Lions.
Somos uma potência de criatividade e negócios que se reinventa todos os dias.
Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos importante, na transformação das pessoas.
Porque as pessoas são o centro da cultura da agência.
Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados.
Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time.
Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência.
E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.
Venha fazer parte do nosso time!
Responsabilidades e atribuições
DESCRIÇÃO DAS PRINCIPAIS RESPONSABILIDADES:
Gestão e Supervisão:
Revisar código, arquitetura de pipelines e implementações de dados da equipe
Apoiar o Gerente na aprovação de tarefas, validando qualidade técnica e alinhamento com requisitos
Conduzir code reviews estruturados, fornecendo feedback construtivo
Mentorizar e desenvolver tecnicamente membros da equipe
Identificar e documentar lições aprendidas e melhores práticas
Manter comunicação clara com stakeholders sobre o status técnico
Pipelines e Orquestração de Dados:
Arquitetar e otimizar pipelines de dados em múltiplas plataformas (GCP, Databricks, Microsoft Fabric)
Apoiar na criação e manutenção de fluxos de trabalho complexos e escaláveis
Implementar orquestração com Google Cloud Composer, Airflow, Databricks Workflows e Data Factory
Garantir idempotência, resiliência e tratamento de erros em pipelines
Otimizar performance e reduzir latência de processamento
Implementar processamento em tempo real e batch conforme necessidade
Plataformas Cloud e Infraestrutura:
Google Cloud Platform (GCP):
BigQuery: design de tabelas, otimização de queries, particionamento e clustering
Dataflow: pipelines Apache Beam em escala
Cloud Composer: orquestração de workflows
Cloud Storage, Pub/Sub, Bigtable
VPCs, Firewalls e segurança em GCP
IAM e gerenciamento de identidades
Databricks:
Arquitetura com Delta Lake e Unity Catalog
Otimização de Spark SQL e jobs Databricks
Integração com repositórios Git (MLflow, DLT)
Segurança, RBAC e governança no Databricks
Managed infrastructure e clusters
Microsoft Fabric:
Synapse Analytics e Data Factory
Power BI integrado com ambientes de dados
Integração com Azure ecosystem
Data Warehouse e Lakehouse patterns
Infraestrutura e Operações Cloud:
Projetar, configurar e manter ambientes cloud (Dev, Staging, Produção)
Gerenciar VPCs, subnets, firewalls e security groups
Implementar IAM, autenticação e autorização (RBAC, ACLs)
Gerenciar secrets, chaves de acesso e compliance de segurança
Containerização com Docker e orquestração com Kubernetes
Implementar CI/CD pipelines para automação de deployments
Monitoramento, logging e alertas (Cloud Logging, Datadog, Prometheus)
FinOps: otimização de custos em ambientes cloud
Backup, disaster recovery e business continuity
Qualidade e Governança de Dados:
Implementar e manter SLAs de qualidade de dados
Validação de dados, schema evolution e data profiling
Documentar data lineage e relacionamentos
Implementar governança de dados (catálogo, metadados)
Conformidade com LGPD, GDPR, SOC2 e outras regulamentações
Auditoria e rastreabilidade de acesso aos dados
Arquitetura de Dados:
Projetar data lakes e data warehouses escaláveis
Definir estratégias de particionamento e indexação
Implementar padrões de arquitetura (medallion, star schema, etc.)
Avaliar trade-offs entre diferentes arquiteturas
Documentar decisões arquiteturais e manter arquitetura atualizada
Performance e Otimização:
Identificar gargalos em pipelines e infraestrutura
Implementar cache, índices e estratégias de compressão
Otimizar queries em BigQuery, Spark e Synapse
Monitorar e alertar sobre degradação de performance
Análise de custos e otimização de recurso de computação
Requisitos e qualificações
QUALIFICAÇÕES DESEJÁVEIS:
FORMAÇÃO:
Superior Completo em Engenharia, Ciência da Computação, Sistemas de Informação ou afins
Especialização, certificações ou cursos avançados em arquitetura de dados, cloud computing ou big data (desejável)
CONHECIMENTOS TÉCNICOS OBRIGATÓRIOS:
Programação e Linguagens:
Python avançado para processamento, transformação e orquestração de dados
SQL avançado: stored procedures, window functions, otimização de queries
Conhecimento em pelo menos uma linguagem adicional (Java, Scala, Go)
Plataformas Cloud (essencial ter experiência em ao menos uma):
Google Cloud Platform (GCP): BigQuery, Dataflow, Cloud Composer, Cloud Storage, Pub/Sub, IAM
Databricks: Delta Lake, Spark SQL, Unity Catalog, Databricks Workflows
Microsoft Fabric: Synapse Analytics, Data Factory, Power BI integrado
Infraestrutura Cloud:
Redes cloud: VPCs, subnets, firewalls, load balancers
IAM e segurança: gerenciamento de identidades, RBAC, secrets management
Containerização: Docker e orquestração com Kubernetes
CI/CD e automação de deployments
Monitoramento, logging e observabilidade
Engenharia de Dados:
ETL/ELT: design e implementação de pipelines robustos
Data warehousing e data lakes
Processamento em tempo real e batch
Versionamento de código: Git, GitHub/GitLab
Orquestração: Airflow, Dataflow, Cloud Composer, Databricks Workflows
Apache Spark e distributed computing
Qualidade e Governança:
Data quality frameworks e validação
Governança de dados e data cataloging
Compliance: LGPD, GDPR, SOC2
Data lineage e metadata management
DIFERENCIAIS:
Experiência com múltiplas plataformas cloud (GCP + Databricks + Microsoft Fabric)
Certificações cloud (GCP Professional Data Engineer, Databricks Certified, Azure Data Engineer)
Experiência com streaming de dados (Kafka, Pub/Sub, Kinesis)
Machine Learning Ops (MLflow, feature stores)
Experiência em FinOps e otimização de custos cloud
Conhecimento de GraphQL e APIs REST avançadas
Experiência em ambientes híbridos (on-premise + cloud)
Contribuições em projetos open-source de dados (Apache Spark, Airflow, dbt)
Experiência com Infrastructure as Code (Terraform, CloudFormation, Bicep)
Liderança técnica comprovada e mentoria de equipes
EXPERIÊNCIA PROFISSIONAL:
Mínimo de 3-4 anos em engenharia de dados ou posição similar
Mínimo de 2+ anos com plataformas cloud (GCP, Databricks, Microsoft Azure/Fabric)
Comprovada experiência em liderança técnica, code review e mentoria
Experiência em arquitetura e design de soluções de dados
Background em múltiplos segmentos/indústrias (marketing = diferencial)
COMPETÊNCIAS COMPORTAMENTAIS:
Liderança técnica e capacidade de mentorizar
Forte comunicação técnica e não-técnica
Pensamento estratégico e visão de longo prazo
Proatividade e capacidade de resolução de problemas
Flexibilidade e adaptabilidade a novas tecnologias
Trabalho em equipe e colaboração
Excelente atenção a detalhes e qualidade
Comprometimento com boas práticas e padronização
Capacidade de tomar decisões em ambientes de incerteza
EXPECTATIVAS DE DESEMPENHO:
Redução de bugs/issues em produção relacionados a dados
Desenvolvimento técnico comprovável da equipe
Manutenção de SLAs de qualidade e performance de dados
Contribuição ativa na evolução arquitetural da plataforma
Participação em roadmap técnico com o Gerente
Documentação clara e atualizada dos processos
Informações adicionais
Como é a área de dados da Almap:
Atualmente somos cerca de 70 pessoas, em times segmentados por diversas especialidades: Data Solutions, Data Analytics, Engenharia de Dados, Data Science, Media Research e Accountability
Temos níveis hierárquicos bem definidos com Head da área, Diretoria, Gerências, Coordenação, Analistas (SR, PL e JR) e Estagiários.
Acreditamos no diálogo e no compartilhamento de experiências e conhecimento, fazendo com que nossa gestão seja muito horizontal.
Nossa área tem um clima ótimo, trabalhamos de forma híbrida, remotamente a maior parte do tempo e eventualmente fazemos encontros presenciais para quem pode estar em São Paulo.
Temos pessoas residentes em diversos Estados trabalhando conosco.
Também fazemos encontros online quinzenalmente com toda a área para troca de experiências e conhecimento.
#J-*****-Ljbffr