Ciandt

[28730] Data Developer Senior - Oportunidade exclusiva para pessoas com deficiencia

Apply Now

Job Description

Estamos em busca de uma pessoa talentosa e motivada para atuar como Engenheiro(a) de Dados, integrando nosso time e contribuindo na construção de soluções escaláveis e inteligentes para grandes volumes de dados.
Se você é apaixonado por dados, tem experiência sólida com Databricks, Spark, Azure Data Factory (ADF), Cloudera e modelagem de dados, gosta de resolver problemas complexos e colaborar com equipes multidisciplinares, essa vaga é para você!

Responsabilidades:
 - Projetar, desenvolver e manter pipelines de dados escaláveis e robustos.
 - Criar soluções de ingestão, transformação e modelagem de dados utilizando Databricks, Spark/PySpark, Cloudera e Azure Data Factory (ADF).
 - Garantir a qualidade, integridade e usabilidade dos dados ao longo de todo o pipeline.
 - Implementar pipelines CI/CD voltados a processos ETL.
 - Projetar e manter soluções de Data Lake e Data Warehouse, com aplicação de boas práticas de governança de dados.
 - Aplicar conceitos de FinOps para otimização de custos relacionados ao processamento de dados na nuvem.
 - Desenvolver e documentar workflows, processos e arquiteturas de dados.
 - Realizar troubleshooting técnico de pipelines e infraestrutura de dados.
 - Trabalhar com conceitos e estruturas como camadas Bronze, Silver e Gold, Star Schema, Delta Tables, Delta Sharing e tabelas analíticas.
 - Colaborar com equipes técnicas e de negócios para orquestrar soluções alinhadas aos objetivos da empresa.
 - Gerenciar roadmap técnico de projetos de dados, considerando dependências, trade-offs e gestão de mudanças.

Requisitos Técnicos:
 - Graduação em Ciência da Computação, Engenharia, TI ou áreas correlatas.
 - Experiência sólida como Engenheiro(a) de Dados ou função similar.

Conhecimento avançado em:
 - SQL
 - Python / PySpark
 - Azure Databricks (workflows, jobs, delta tables, queries, etc)
 - Azure Data Factory (ADF)
 - Cloudera (Hive, Impala, HDFS, etc)
 - ETL/ELT e pipelines de dados
 - Modelagem de dados dimensionais
 - Data Lake / Data Warehouse
 - Governança e qualidade de dados
 - Vivência com práticas de CI/CD aplicadas ao ambiente de dados.
 - Habilidade em comunicação e colaboração com times multidisciplinares.
 - Capacidade de atuar em ambientes dinâmicos e lidar com escopo técnico pouco definido.
 - Conhecimento em otimização de código em ambientes cloud.

Diferencial: 
 - Experiência com Teradata.
 - Experiência com SAS.