Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Data Platform SR (Remoto) - 127238

GFT Technologies

Barueri

Híbrido

BRL 120.000 - 160.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em Barueri, São Paulo, está em busca de um profissional de nível SR para atuar na área de Data Platform. Este cargo envolverá projetar e operar plataformas de dados, desenvolver soluções em arquiteturas modernas e liderar projetos. O candidato ideal deve ter experiência em design de data lakes e automação de pipelines, além de habilidades em várias linguagens de programação. A forma de trabalho é híbrida, oferecendo flexibilidade e um ambiente colaborativo.

Qualificações

  • Experiência em design e implementação de data lakes e data warehouses.
  • Conhecimento em automação de pipelines de dados com DataOps e CI/CD.
  • Experiência com Apache Spark, Hadoop e Kafka.

Responsabilidades

  • Projetar e operar plataformas de dados escaláveis e resilientes.
  • Desenvolver soluções baseadas em arquiteturas modernas como Data Lake e Cloud.
  • Liderar tecnicamente projetos e apoiar decisões estratégicas.

Conhecimentos

Arquitetura e Engenharia de Dados
Automação de pipelines de dados
Python
SQL
Java
Scala
Shell Script
PostgreSQL
MongoDB
Apache Spark
Hadoop
AWS
BigQuery
Grafana
Prometheus

Ferramentas

Apache Airflow
Talend
DBT
Descrição da oferta de emprego
O que buscamos:

Profissional de nível SR que atue com Data Platform. Irá atuar na modalidade híbrida remoto

Responsabilidades:
  • Projetar e operar plataformas de dados escaláveis e resilientes;
  • Desenvolver soluções baseadas em arquiteturas modernas (Data Lake, Data Warehouse, Cloud);
  • Atuar com foco em performance, confiabilidade e segurança dos dados;
  • Liderar tecnicamente projetos e apoiar decisões estratégicas baseadas em dados;
  • Colaborar com equipes multidisciplinares em um ambiente ágil;
  • Apoiar a governança de dados, incluindo segurança, conformidade e boas práticas.
Requisitos e qualificações;
  • Arquitetura e Engenharia de Dados: Experiência em design e implementação de data lakes e data warehouses;
  • Conhecimento em automação de pipelines de dados (DataOps, CI/CD);
  • Linguagens de Programação: Python, SQL, Java, Scala, Shell Script;
  • Bancos de Dados: Relacionais - PostgreSQL, MySQL, SQL Server, Oracle | Não-relacionais - MongoDB, Cassandra, DynamoDB;
  • Big Data e Processamento Distribuído: Experiência com Apache Spark, Hadoop, Hive e Kafka;
  • Plataformas em Nuvem (Cloud): AWS (Redshift, S3, Glue), Google Cloud (BigQuery, Dataflow), Azure (Data Lake, Synapse Analytics);
  • Ferramentas ETL/ELT: Apache Airflow, dbt, Informatica, Talend;
  • Monitoramento e Observabilidade: Grafana, Prometheus, Datadog;
  • Segurança e Governança de Dados: Controle de acesso, criptografia, conformidade com LGPD/GDPR.
Desejáveis:
  • Experiência com arquitetura orientada a eventos (event-driven);
  • Conhecimento em malhas de dados (Data Mesh);
  • Certificações em plataformas cloud (AWS, GCP, Azure);
  • Participação em iniciativas de inovação e POCs de novas tecnologias.
Descrição comportamental:
Procuramos uma pessoa que:
  • Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
  • Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
  • Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
  • Tenha habilidades de resolução de problemas;
  • Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
  • Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.

Big enough to deliver – small enough to care.

#VempraGFT

#VamosVoarJuntos

#ProudToBeGFT

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.