Responsabilidades e atribuições:
Desenvolver e manter pipelines de dados (ETL/ELT) com foco em performance e escalabilidade.
Atuar com extração, transformação e carga de dados em ambientes distribuídos.
Trabalhar com integração entre sistemas transacionais, data lakes e consumidores de dados (como FICO).
Colaborar com times de DataOps, MLOps, Cloud, Arquitetura e Produto.
Participar de projetos com foco em cultura data driven e recuperação eficiente de dados.
Garantir a qualidade e disponibilidade dos dados para uso analítico.
Requisitos obrigatórios:
Conhecimento em linguagens como SQL, Python, Spark, Scala ou Java.
Experiência com plataformas distribuídas como Hadoop, Spark ou Databricks.
Domínio de Azure Cosmos DB.
Noções práticas de DevOps aplicado a dados.
Familiaridade com containers (Kubernetes, OpenShift ou AKS).
Boa comunicação e colaboração com times técnicos e de negócio
Híbrido - SP
CLT
Empresa .....: MJV SOLUCOES EM TECNOLOGIA LTDA
Código .......: 79959 Envie seu currículo