Job description
Main responsibilities
- Desenvolver e otimizar soluções com grandes volumes de dados em ambientes distribuídos e em nuvem;
- Participar ativamente da expansão da Plataforma Analítica, com foco em Big Data e Cloud Computing (Azure);
- Realizar levantamento de requisitos junto às áreas de negócio e traduzi-los em soluções técnicas;
- Criar e manter modelos de dados analíticos e indicadores (Data Warehouse / Data Mart);
- Desenvolver processos de ETL/ELT utilizando ferramentas visuais (Talend, NiFi, Glue, SSIS) e scripts em Python;
- Assegurar governança, qualidade e segurança no tratamento e acesso aos dados;
- Promover automação de processos de dados e monitoramento de pipelines;
- Garantir SLA de entrega de dados e análises para as áreas usuárias;
- Corrigir falhas e otimizar a performance de cargas de dados e processos analíticos.
Requirements and skills
- Formação superior completa em Análise e Desenvolvimento de Sistemas, Ciência de Dados, Computação ou áreas correlatas;
- Business Intelligence: Modelagem Dimensional e Transacional, ETL, SQL, JSON, Data Visualization;
- Big Data: Hadoop, Hive, Spark, Sqoop, HDFS;
- Python;
- Cloud Computing: Azure (Data Factory, Storage);
- ETL/ELT: Talend, NiFi, Glue, SSIS;
- SQL Server ou outros bancos relacionais;
- Modelagem de Dados: Gestão e modelagem de dados dimensionais e transacionais;
- Ferramentas e Frameworks: Spark SQL;
- Experiência com metodologias ágeis (Scrum/Kanban).
- Desejável: Experiência com PySpark, Hive e Sqoop; Experiência com C# para automação de pacotes SSIS.
Não possui todos os requisitos para a vaga?
Está tudo bem! Na Compass UOL, estimulamos o desenvolvimento contínuo de novos talentos e transformamos desafios em oportunidades.
Additional information
#remote
remote