Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Analytics Engineer Pleno (Salesforce)

Uds Tecnologia

Brasília

Presencial

BRL 80.000 - 120.000

Tempo integral

Há 3 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia de dados está em busca de um profissional para desenvolver e manter pipelines de dados, garantir a integridade e automação de processos, além de implementar soluções em ambientes cloud. O candidato ideal deve ter sólidos conhecimentos em bancos de dados relacionais, experiência com Salesforce e ser proficiente em Python. Este papel requer habilidades em integração de dados e um bom nível de inglês. O trabalho será essencial para otimizar as operações de diversas áreas de negócio.

Qualificações

  • Sólidos conhecimentos em SQL Server, BigQuery e Snowflake.
  • Conhecimento em S3, Lambda, Cloud Functions, etc.
  • Inglês funcional.

Responsabilidades

  • Desenvolver e manter pipelines e processos de ingestão de dados.
  • Implementar arquiteturas em ambientes cloud.
  • Automatizar processos e garantir a integridade dos dados.

Conhecimentos

Bancos de dados relacionais e analíticos
Integração de dados com Salesforce
Programação em Python
Ambientes cloud (AWS, GCP)
Experiência com Airflow
Descrição da oferta de emprego
Atribuições
  • Desenvolver, evoluir e manter pipelines, processos de ingestão e integração entre sistemas internos e externos, garantindo qualidade, governança, segurança e disponibilidade dos dados utilizados pelas áreas de negócio;
  • Implementar e otimizar arquiteturas de dados em ambientes cloud (AWS/GCP) e plataformas analíticas (Snowflake, BigQuery), assegurando escalabilidade, automação e aderência às melhores práticas de engenharia;
  • Atuar de forma consultiva com áreas de negócio, traduzindo requisitos em soluções técnicas, garantindo clareza, paciência no atendimento, comunicação efetiva e alinhamento entre expectativa e entrega;
  • Automatizar processos, aplicar boas práticas de DataOps, versionamento e governança, monitorar fluxos de dados e atuar preventivamente para garantir a integridade e continuidade dos serviços;
  • Construir, manter e monitorar integrações com soluções externas, garantindo ingestão contínua, tratamento adequado dos dados e alinhamento técnico com fornecedores e parceiros.
Requisitos
  • Sólidos conhecimentos em bancos de dados relacionais e analíticos (SQL Server, BigQuery, Snowflake);
  • Experiência com Salesforce (integração e consumo de dados);
  • Domínio de linguagem de programação para engenharia de dados (Python);
  • Conhecimento em ambientes cloud (AWS e GCP), incluindo S3, Lambda, Cloud Functions, IAM, Dataproc, Pub/Sub e serviços de orquestração;
  • Experiência com pipelines e integrações de dados (Airflow, Dataflow, Glue, Functions, Cloud Run);
  • Conhecimento em modelagem de dados, arquitetura de Data Lake e Data Warehouse;
  • Experiência com ferramentas de atendimento/contact center para ingestão de dados (Genesys, Five9);
  • Noções de governança, versionamento e boas práticas de DataOps (Git, CI/CD, documentação técnica);
  • Inglês.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.