Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Analytics Engineer Pleno (SalesForce)

UDS Tecnologia

Manaus

Presencial

BRL 80.000 - 120.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em Manaus está em busca de um profissional qualificado para desenvolver e manter pipelines, integrando sistemas internos e externos. O candidato ideal deve ter sólidos conhecimentos em SQL e Python, assim como experiência em ambientes cloud como AWS e GCP. A função inclui atuar de forma consultiva com as áreas de negócio e automatizar processos de DataOps. Oferecemos um ambiente dinâmico e a oportunidade de trabalhar com tecnologias de ponta.

Qualificações

  • Sólidos conhecimentos em bancos de dados relacionais e analíticos.
  • Experiência com integração e consumo de dados em Salesforce.
  • Domínio de Python para engenharia de dados.
  • Experiência em ambientes cloud AWS e GCP.

Responsabilidades

  • Desenvolver e manter pipelines de dados.
  • Implementar arquiteturas de dados em ambientes cloud.
  • Atuar consultivamente com as áreas de negócio.
  • Automatizar processos de DataOps.

Conhecimentos

SQL
Python
Inglês
DataOps
Integração de dados

Ferramentas

AWS
GCP
Snowflake
BigQuery
Airflow
Genesys
Five9
Descrição da oferta de emprego
Atribuições

Desenvolver, evoluir e manter pipelines, processos de ingestão e integração entre sistemas internos e externos, garantindo qualidade, governança, segurança e disponibilidade dos dados utilizados pelas áreas de negócio;

Implementar e otimizar arquiteturas de dados em ambientes cloud (AWS / GCP) e plataformas analíticas (Snowflake, BigQuery), assegurando escalabilidade, automação e aderência às melhores práticas de engenharia;

Atuar de forma consultiva com áreas de negócio, traduzindo requisitos em soluções técnicas, garantindo clareza, paciência no atendimento, comunicação efetiva e alinhamento entre expectativa e entrega;

Automatizar processos, aplicar boas práticas de DataOps, versionamento e governança, monitorar fluxos de dados e atuar preventivamente para garantir a integridade e continuidade dos serviços;

Construir, manter e monitorar integrações com soluções externas, garantindo ingestão contínua, tratamento adequado dos dados e alinhamento técnico com fornecedores e parceiros.

Requisitos

Sólidos conhecimentos em bancos de dados relacionais e analíticos (SQL Server, BigQuery, Snowflake);

Experiência com Salesforce (integração e consumo de dados);

Domínio de linguagem de programação para engenharia de dados (Python);

Conhecimento em ambientes cloud (AWS e GCP), incluindo S3, Lambda, Cloud Functions, IAM, Dataproc, Pub / Sub e serviços de orquestração;

Experiência com pipelines e integrações de dados (Airflow, Dataflow, Glue, Functions, Cloud Run);

Conhecimento em modelagem de dados, arquitetura de Data Lake e Data Warehouse;

Experiência com ferramentas de atendimento / contact center para ingestão de dados (Genesys, Five9);

Noções de governança, versionamento e boas práticas de DataOps (Git, CI / CD, documentação técnica);

Inglês.

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.