Ativa os alertas de emprego por e-mail!
Melhora as tuas possibilidades de ir a entrevistas
Cria um currículo adaptado à oferta de emprego para teres uma taxa de sucesso superior.
Uma empresa inovadora no setor de tecnologia busca um Engenheiro de Dados para implementar processos de ETL e otimizar pipelines de dados. O candidato ideal terá experiência em big data e será responsável por garantir a qualidade e eficiência dos dados. Esta posição oferece a oportunidade de trabalhar com tecnologias de ponta e contribuir para a construção de soluções robustas em um ambiente dinâmico e colaborativo. Se você é apaixonado por dados e deseja fazer a diferença em projetos significativos, esta é a sua chance.
ATIVIDADES
Implementar processos de ETL para extrair dados de várias fontes, transformá-los conforme necessário e carregá-los em data warehouses, data lakes ou outras plataformas de armazenamento;
Monitorar e otimizar o desempenho dos pipelines de dados para garantir eficiência e rapidez;
Utilizar técnicas de particionamento, indexação e caching para melhorar a performance dos sistemas de dados;
Desenvolver e utilizar ferramentas e scripts de validação para detectar e corrigir problemas de qualidade de dados;
Monitorar continuamente a qualidade dos dados e implementar melhorias conforme necessário;
Utilizar técnicas de encriptação, mascaramento de dados e controle de acesso para proteger os dados;
Realizar demais atividades correlatas a serem definidas pelo CONTRATANTE.
FORMAÇÃO
Possuir diploma de conclusão de curso de graduação em nível superior em qualquer área de Tecnologia da Informação (ou área correlata), fornecido por instituição de ensino superior reconhecida pelo Ministério da Educação, ou diploma de curso de graduação de nível superior em qualquer área de formação acompanhado de especialização na área de Tecnologia da Informação.
EXPERIÊNCIA
Mínimo de 1 ano de experiência em engenharia de dados, análise de dados ou áreas relacionadas; Experiência comprovada com ferramentas e tecnologias de big data, processamento de dados e ETL (Extract, Transform, Load); Experiência no tratamento e movimentação de grandes volumes de dados (Big Data); Experiência com bancos de dados relacionais (SQL Server, PostgreSQL, Oracle) e não relacionais (MongoDB, Cassandra, Hadoop); Proficiência em linguagens de programação e scripting, como Python, .Net, Java, Scala, SQL; Experiência com frameworks de processamento de dados, como Apache Spark, Apache Flink, Hadoop, etc; Conhecimento em ferramentas de ETL; Conhecimento em arquitetura de dados, modelagem de dados e design de data warehouses e data lakes; Habilidades em ferramentas de visualização de dados, como Tableau, Power BI, ou similares; Conhecimento em bancos de dados analíticos, como IBM DB2 Colunar e SQL Server Analysis Services; Conhecimento em CI/CD e ferramentas de integração contínua. ;