Arquitetura Lakehouse, incluindo implementação e sustentação de ambientes escaláveis
Experiência com Databricks, Delta Tables e PySpark para construção de pipelines robustos
Conhecimento avançado em modelagem de dados voltada para ambientes analíticos
Experiência no desenvolvimento e orquestração de pipelines de dados (batch e streaming)
Conhecimento em boas práticas de governança de dados, qualidade, catalogação e linhagem (data
lineage)
Experiência com integração de múltiplas fontes de dados (APIs, bancos relacionais, dados estruturados e não estruturados)
Experiência com versionamento de código e boas práticas de engenharia de software
Conhecimento em otimização de performance e custos em pipelines e armazenamento de dados
Familiaridade com metodologias ágeis
Diferenciais:
Experiência com Data Governance e frameworks de qualidade de dados
Certificações em Databricks, Cloud
Airflow, Azure Data Factory
Data-Driven
Event-Driven
Ferramentas de catálogo de dados
Empresa .....: Entrust It
Código .......: 84555 Envie seu currículo