Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Analista de Dados III 128204

GFT

São Paulo

Híbrido

BRL 80.000 - 120.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em São Paulo busca um profissional de Engenharia de Dados para atuar em projetos de Big Data. O candidato ideal deve ter experiência em Spark, Hive e Pyspark, além de conhecimento em bancos de dados relacionais como SQL Server e Oracle. O trabalho será híbrido, com presença no escritório três vezes na semana. É valorizado o trabalho colaborativo e a resolução de problemas. Oferece um ambiente dinâmico e oportunidades de crescimento.

Qualificações

  • Necessário experiência com projetos de Big Data utilizando tecnologias como Spark, Hive e HDFS.
  • Experiência comprovada no desenvolvimento de aplicações em Pyspark e Spark SQL.
  • Conhecimento avançado em Pyspark PL / SQL e Shell Script.
  • Diferenciais: Certificações Cloud (AWS, Azure);

Responsabilidades

  • Desenvolvimento de funcionalidades.
  • Manutenção em sistemas e bancos de dados.
  • Monitoramento de rotinas.
  • Acompanhamento de funcionalidades nas devidas esteiras.

Conhecimentos

Spark
Hive
HDFS
Pyspark
SQL
Shell Script
ControlM
Hadoop
Databricks
Banco de Dados Relacional
DML
DCL
Design Patterns
Metodologia Ágil
DevSecOps
Git
Inglês
Espanhol

Ferramentas

Jira
Confluence
Dynatrace
Descrição da oferta de emprego
O que buscamos :

Profissional que atue com Engenharia de Dados que possua disponibilidade para atuação hibrida (3x por semana presencial) no bairro de Santo Amaro (São Paulo / SP).

Responsabilidade :
  • Desenvolvimento de funcionalidades;
  • Manutenção em Funcionalidades / Sistemas / Banco de Dados;
  • Monitoramento rotinas;
  • Acompanhamento e Implantação de funcionalidade nas devidas esteiras (API Liquibase Maestro);
  • Entendimento e acompanhamento das histórias de usuários;
  • Ritos Ágeis (Daily Replenishment Reviews);
  • Reportes técnicos sobre as tarefas em curso;
  • Planejamento de tarefas;
  • Acompanhamento e cadastro de atividades no Jira;
  • Qualidade nas entregas;
  • Qualidade nos Testes.
Requisitos e Qualificações :
  • Necessário experiência com projetos de Big Data utilizando tecnologias como Spark Hive e HDFS;
  • Experiência comprovada no desenvolvimento de aplicações em Pyspark e Spark SQL;
  • Conhecimento avançado em Pyspark PL / SQL e Shell Script;
  • Conhecimento em ControlM;Hadoop (Hive Impala) Python PySpark;
  • Conhecimento Databricks;
  • Conhecimento em Banco de Dados relacional (SQL Server Oracle Postgreeetc);
  • Experiência com DML DCL em Banco de Dados relacionais;
  • Conhecimentos em Design Patters e Padrões de Arquitetura;
  • Monitoramento : Dynatrace;
  • Metodologia Ágil;
  • Ferramentas Colaborativas : Jira Confluence;
  • Conhecimentos em DevSecOps : Integração Continua Git;
  • Diferenciais : Certificações Cloud (AWS Azure);
  • Diferenciais : Inglês e Espanhol;
  • Conhecimento de negócios em contábil e fiscal.
Descrição comportamental :
Procuramos uma pessoa que :
  • Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
  • Tenha coragem para se desafiar e ir além abraçando novas oportunidades de crescimento;
  • Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
  • Tenha habilidades de resolução de problemas ;
  • Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo ;
  • Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.

Big enough to deliver small enough to care.

#VempraGFT

#VamosVoarJuntos

#ProudToBeGFT

Key Skills

Internship,Accounts Receivable,Generator,Computer Operating,Corporate Risk Management

Employment Type : Full Time

Experience : years

Vacancy : 1

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.