top of page

Coordenador de Engenharia de Dados

São Paulo, SP

Vaga

Fulltime

Local

Presencial

Data Publicação

21 de março de 2025 às 18:52:08

Vaga

Procuramos profissionais que queiram trabalhar em uma empresa repleta de desafios, novidades e muito aprendizado! O seu desafio será de desenvolver, implementar e gerenciar a infraestrutura e os processos de engenharia de dados, garantindo a ingestão, processamento e armazenamento eficiente e seguro de grandes volumes de dados. Viabilizar a escalabilidade, confiabilidade e qualidade dos dados, atendendo às demandas do negócio e suportando decisões estratégicas por meio de uma arquitetura moderna e aderente às melhores práticas de mercado.


O que você vai fazer:

- Desenvolver e evoluir a infraestrutura de dados, garantindo ingestão, processamento e armazenamento eficientes com AWS, Airflow e DBT;

- Criar e otimizar pipelines de dados, automatizando processos com ETL/ELT, Python e SQL, garantindo dados confiáveis para as áreas de negócio;

- Definir estratégias de governança e rastreabilidade, implementando padrões que assegurem a qualidade e conformidade dos dados (LGPD/GDPR);

- Monitorar e otimizar a performance da plataforma de dados, utilizando métricas e ferramentas para garantir eficiência operacional;

- Explorar novas tecnologias e metodologias, conduzindo PoCs para otimizar processos e melhorar a escalabilidade dos dados;

- Alinhar soluções técnicas às necessidades do negócio, garantindo que os dados impulsionem decisões estratégicas;

- Gerenciar investimentos em infraestrutura de dados, otimizando custos e garantindo alta performance das soluções implementadas.

Requisitos

Para este desafio é necessário:


- Ensino superior completo em Engenharia de Dados, Ciências da computação ou cursos correlatos;


- Conhecimentos em, AWS, Snowflake, Apache Kafka, DBT e ferramentas de ETL/ELT como Airflow e Glue;


- Domínio em linguagens como Python, SQL, e Scala;


- Armazenamento e Processamento em Nuvem: Proficiência em soluções de dados na AWS (Redshift, S3), GCP (BigQuery, DataFlow);


- Conhecimento em metodologias ágeis (Scrum, Kanban) e ferramentas de monitoramento como Prometheus e Grafana;


- Familiaridade com APIs, conectores de dados e processos de orquestração;


- Experiência com gestão de equipe.



Diferenciais para o cargo:


- Pós-graduação e/ou MBA em Big data, entre outros cursos correlatos;


- Certificações Essenciais em Nuvem AWS (Amazon Web Services), Microsoft Azure, Google Cloud Platform (GCP), Google Professional Data Enginee.

Sobre a empresa

Inscreva-se em Nossa Newsletter

Entre em Contato

bottom of page