Esta é uma vaga de uma empresa parceira ao qual presto consultoria, ao candidatar-se você terá acesso as informações completas sobre a empresa e benefícios.
Estamos em busca de Desenvolvimento/Engenharia de Dados para compor o time!
Quais serão suas responsabilidades?
Desenvolver componentes para ingestão e processamentos de dados em cima de plataforma em Azure;
Análise e throubleshooting dos ambientes que compreendem a plataforma de dados;
Desenho e implantação de novas arquiteturas para disponibilização de dados;
Atuar na frente da área de dados, apoiando, direcionando e capacitando a equipe atual, para desenhar e implementar as melhores soluções.
O que é necessário para participar desse processo seletivo?
Conhecer os ambientes Azure Databricks e GCP Big query (Dataflow eComposer (Apache Airflow);
Bancos de dados transacional SQL;
Fazer o mapeamento de fontes de dados para cobertura total dos dados solicitados pelo demandante de dados;
Desenvolver pipeline em batch e streaming (NRT) de ingestão de transformação de dados dos sistemas origem para as camadas de entrada no data lake (raw/trusted);
Automatizar pipeline para execução automática.
Esta é uma vaga de uma empresa parceira ao qual presto consultoria, ao candidatar-se você terá acesso as informações completas sobre a empresa e benefícios.
Estamos em busca de Desenvolvimento/Engenharia de Dados para compor o time!
Quais serão suas responsabilidades? Desenvolver componentes para ingestão e processamentos de dados em cima de plataforma em Azure; Análise e throubleshooting dos ambientes que compreendem a plataforma de dados; Desenho e implantação de novas arquiteturas para disponibilização de dados; Atuar na frente da área de dados, apoiando, direcionando e capacitando a equipe atual, para desenhar e implementar as melhores soluções.
O que é necessário para participar desse processo seletivo? Conhecer os ambientes Azure Databricks e GCP Big query (Dataflow eComposer (Apache Airflow); Bancos de dados transacional SQL; Fazer o mapeamento de fontes de dados para cobertura total dos dados solicitados pelo demandante de dados; Desenvolver pipeline em batch e streaming (NRT) de ingestão de transformação de dados dos sistemas origem para as camadas de entrada no data lake (raw/trusted); Automatizar pipeline para execução automática.
Local: 100% Remoto
Labels Alocação Remoto
Regime CLT PJ
Envio de CV para techrecruiterju@gmail.com**