
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa de tecnologia em Manaus está em busca de um profissional qualificado para desenvolver e manter pipelines, integrando sistemas internos e externos. O candidato ideal deve ter sólidos conhecimentos em SQL e Python, assim como experiência em ambientes cloud como AWS e GCP. A função inclui atuar de forma consultiva com as áreas de negócio e automatizar processos de DataOps. Oferecemos um ambiente dinâmico e a oportunidade de trabalhar com tecnologias de ponta.
Desenvolver, evoluir e manter pipelines, processos de ingestão e integração entre sistemas internos e externos, garantindo qualidade, governança, segurança e disponibilidade dos dados utilizados pelas áreas de negócio;
Implementar e otimizar arquiteturas de dados em ambientes cloud (AWS / GCP) e plataformas analíticas (Snowflake, BigQuery), assegurando escalabilidade, automação e aderência às melhores práticas de engenharia;
Atuar de forma consultiva com áreas de negócio, traduzindo requisitos em soluções técnicas, garantindo clareza, paciência no atendimento, comunicação efetiva e alinhamento entre expectativa e entrega;
Automatizar processos, aplicar boas práticas de DataOps, versionamento e governança, monitorar fluxos de dados e atuar preventivamente para garantir a integridade e continuidade dos serviços;
Construir, manter e monitorar integrações com soluções externas, garantindo ingestão contínua, tratamento adequado dos dados e alinhamento técnico com fornecedores e parceiros.
Sólidos conhecimentos em bancos de dados relacionais e analíticos (SQL Server, BigQuery, Snowflake);
Experiência com Salesforce (integração e consumo de dados);
Domínio de linguagem de programação para engenharia de dados (Python);
Conhecimento em ambientes cloud (AWS e GCP), incluindo S3, Lambda, Cloud Functions, IAM, Dataproc, Pub / Sub e serviços de orquestração;
Experiência com pipelines e integrações de dados (Airflow, Dataflow, Glue, Functions, Cloud Run);
Conhecimento em modelagem de dados, arquitetura de Data Lake e Data Warehouse;
Experiência com ferramentas de atendimento / contact center para ingestão de dados (Genesys, Five9);
Noções de governança, versionamento e boas práticas de DataOps (Git, CI / CD, documentação técnica);
Inglês.