Ativa os alertas de emprego por e-mail!

Página da Vaga | ENGENHEIRO DE DADOS - Teresina/PI

REDE CACIQUE

Teresina

Presencial

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia inovadora em Teresina está à procura de um Engenheiro de Dados para garantir a integridade e eficiência da infraestrutura de dados. O candidato ideal deve ter experiência em Python, SQL e orquestração de dados utilizando Airflow. Além disso, será responsável pela otimização de pipelines e conformidade com normas de segurança da informação. Oferecemos um pacote de benefícios completo, incluindo plano de saúde e auxílio alimentação.

Serviços

Salário Base
Plano de saúde 50%
Plano Odontológico com Adesão
Ticket Alimentação
Auxílio Combustível
Convênios com empresas parceiras

Qualificações

  • Desejável experiência em ETL/ELT utilizando Python e SQL.
  • Conhecimentos em modelagem de banco de dados e otimização de queries.
  • Experiência em orquestração de dados utilizando Airflow.

Responsabilidades

  • Elaborar consultas SQL para extração de informações.
  • Desenvolver, manter e otimizar pipelines de dados.
  • Garantir conformidade com normas de proteção de dados.

Conhecimentos

Python (pandas, PySpark)
SQL avançado
Airflow (DAGs)
Git/GitHub
Integrações com APIs REST
Modelagem relacional

Formação académica

Ensino Superior Completo ou Cursando em Ciências da Computação, Engenharia da Computação, Ciência de Dados

Ferramentas

Azure
AWS
GCP
Descrição da oferta de emprego
Job description

Estamos à procura de um Engenheiro de Dados para garantir a disponibilidade, integridade e eficiência da infraestrutura de dados da empresa, desenvolvendo e mantendo soluções que possibilitem a coleta, armazenamento, integração e acesso seguro às informações, apoiando a tomada de decisão e a estratégia do negócio.

Possui essas competências e habilidades de Planejamento; Administração do Tempo e Orientação para resultados? Então você é o nosso candidato ideal.

Venha fazer parte do nosso Time!

Main responsibilities
  • Elaborar consultas SQL para extração de informações dos bancos de dados, garantindo que os relatórios sejam gerados em conformidade, sob demanda;
  • Manter e otimizar consultas SQL, a fim de atender novas necessidades e assegurar o bom funcionamento dos sistemas e relatórios, sob demanda;
  • Projetar, desenvolver e manter pipelines de dados eficientes e escaláveis para coleta, processamento, transformação e armazenamento de grandes volumes de informações;
  • Aplicar conhecimentos em programação Python voltados para processos de ETL, garantindo a manutenção e a continuidade da estrutura já existente;
  • Desenvolver, manter e otimizar pipelines de dados eficientes e escaláveis para coleta, processamento, transformação e armazenamento de grandes volumes de informações (ETL/ELT), utilizando Python e SQL;
  • Monitorar a saúde e o desempenho dos sistemas de dados, realizando ajustes e melhorias sempre que necessário;
  • Garantir conformidade com normas de proteção de dados e segurança da informação;
  • Documentar processos, fluxos e arquitetura de dados de forma clara e acessível;
  • Contribuir para modelagem de banco de dados visando otimizar performance e escalabilidade;
  • Aplicar conhecimentos em Airflow para garantir uma orquestração eficiente dos processos existentes;
  • Realizar a extração de informações de diferentes fontes de dados, como bancos de dados, planilhas, XML, JSON, entre outros;
  • Implementar e manter soluções em ambientes de nuvem, com foco em Azure e conhecimento complementar em AWS e GCP;
  • Entre outras funções pertinentes ao cargo.
Requirements and skills
  • Desejável Ensino Superior Completo ou Cursando em Ciências da Computação, Engenharia da Computação, Ciência de Dados e áreas correlatas;
  • ETL/ELT: Python (pandas, PySpark) e SQL avançado;
  • Banco de Dados: modelagem relacional e otimização de queries;
  • Orquestração: experiência com Airflow (DAGs);
  • Arquitetura de Dados: experiência em Data Warehouse, Data Lake e Lakehouse;
  • Cloud: experiência sólida em Azure; noções de AWS e GCP;
  • Versionamento: Git/GitHub;
  • Integrações: experiência com dados vindos de diferentes formatos e APIs REST.
Additional information
  • Salário Base;
  • Plano de saúde 50%;
  • Plano Odontológico com Adesão;
  • Ticket Alimentação;
  • Auxílio Combustível;
  • Convênios com empresas parceiras com descontos exclusivos para colaboradores;
  • Total Pass
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.