Ativa os alertas de emprego por e-mail!

Analista de Dados - 127318

GFT Group

Barueri

Presencial

BRL 80.000 - 120.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de tecnologia em São Paulo procura um profissional experiente em desenvolvimento backend com C# e em engenharia de dados com Spark. O candidato ideal deve ter habilidades em integração de sistemas via APIs REST, ser colaborativo, e ter um forte compromisso com boas práticas de engenharia de software. Esta função envolve projetar e otimizar pipelines de dados, e trabalhar em equipe com foco em resultados de qualidade.

Qualificações

  • Experiência sólida com Apache Spark e Databricks.
  • Inglês intermediário para leitura e escrita técnicas.
  • Experiência com pipelines de dados ETL e arquitetura orientada a dados.

Responsabilidades

  • Projetar, desenvolver e otimizar pipelines de dados utilizando Spark e Databricks.
  • Implementar soluções escaláveis para processamento de grandes volumes de dados.
  • Trabalhar em conjunto com times de engenharia, produto e negócio.

Conhecimentos

Desenvolvimento backend com C#
Integração de sistemas via APIs REST
Engenharia de dados com Spark
Colaboração em equipes multidisciplinares
Boas práticas de engenharia de software
Metodologias ágeis

Formação académica

Formação superior em Ciência da Computação ou áreas correlatas

Ferramentas

Databricks
Apache Spark
Bancos de dados SQL e NoSQL
Descrição da oferta de emprego
O que buscamos

Profissional com experiência sólida em desenvolvimento backend com C# / .NET; Conhecimento em integração de sistemas via APIs REST e serviços AWS; Profissional com experiência sólida em engenharia de dados com Spark e Databricks; Capacidade de desenvolver soluções escaláveis para grandes volumes de dados; Habilidade para colaborar com times multidisciplinares garantindo qualidade e integridade dos dados; Comprometimento com boas práticas de engenharia de software e metodologias ágeis.

Responsabilidades

Projetar, desenvolver e otimizar pipelines de dados utilizando Spark e Databricks; Implementar soluções escaláveis para processamento e transformação de grandes volumes de dados; Trabalhar em conjunto com times de engenharia, produto e negócio para garantir a qualidade e integridade dos dados; Aplicar boas práticas de engenharia de software para garantir eficiência e performance nos processos de dados; Utilizar metodologias ágeis para a gestão de atividades e entregas.

Requisitos e Qualificações

Experiência sólida com Apache Spark e Databricks; Conhecimento em bancos de dados SQL e NoSQL; Experiência com pipelines de dados ETL e arquitetura orientada a dados; Inglês intermediário (leitura e escrita técnicas, comunicação ocasional); Formação superior em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas; Experiência com metodologias ágeis (Scrum, Kanban, etc.).

Diferenciais

Proficiência em Python; Experiência com Azure Data Factory, AWS Glue ou Google Cloud Dataflow; Conhecimento em CI/CD para pipelines de dados; Familiaridade com BigQuery, Redshift ou Snowflake; Certificações em Databricks, Spark ou Cloud Providers;

Descrição comportamental

Procuramos uma pessoa que:

  • Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
  • Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
  • Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
  • Tenha habilidades de resolução de problemas;
  • Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
  • Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.

Big enough to deliver – small enough to care.

#VempraGFT

#VamosVoarJuntos

#ProudToBeGFT

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes