Ativa os alertas de emprego por e-mail!

Engenheiro de Dados Pleno (Freelancer)

Company Hero

São Paulo

Presencial

BRL 20.000 - 80.000

Tempo parcial

Há 30+ dias

Resumo da oferta

Uma empresa de tecnologia em São Paulo está buscando uma Pessoa Engenheira de Dados Pleno para projetar e otimizar pipelines de dados. O candidato ideal deve ter forte experiência em Python, GCP e ferramentas de orquestração como Airflow. Esta posição oferece um contrato de 6 meses com possibilidade de extensão e um ambiente desafiador e em crescimento.

Qualificações

  • Experiência sólida com Python aplicado à engenharia de dados.
  • Domínio de ferramentas do GCP, especialmente BigQuery e Cloud Storage.
  • Conhecimentos práticos em dbt e SQL para transformação de dados.

Responsabilidades

  • Projetar, desenvolver e otimizar pipelines de dados utilizando Cloud Run.
  • Criar e manter integrações de dados com diversas fontes usando Airbyte.
  • Gerenciar e configurar serviços no Google Cloud Platform otimizando sempre a performance.

Conhecimentos

Python
GCP
BigQuery
Cloud Storage
Airflow
dbt

Ferramentas

Google Cloud Platform (GCP)
Apache Airflow
GitHub
Descrição da oferta de emprego
Sobre o desafio:

Estamos em busca de uma Pessoa Engenheira de Dados Pleno com forte experiência em desenvolvimento e otimização de pipelines de dados, utilizando tecnologias modernas em cloud, orquestração e transformação. Você atuará na construção de soluções escaláveis e resilientes, apoiando decisões estratégicas baseadas em dados de negócio.

Sobre a Company Hero:

A Company Hero está revolucionando o mercado de trabalho independente no Brasil, sendo o aliado confiável dos profissionais PJ. Criamos a plataforma tudo-em-um que simplifica a vida de PJs, MEIs e pequenos negócios, unindo compliance, benefícios, seguros e serviços financeiros em um só lugar.

Nosso propósito é claro: transformar a instabilidade em segurança e liberdade, ajudando cada empreendedor a alcançar seu máximo potencial. Nosso aplicativo pioneiro guia os clientes em cada etapa dessa jornada, transformando desafios em oportunidades.

Com mais de 50 mil clientes ativos, faturamento sólido e crescimento consistente mês a mês, estamos prontos para dar o próximo passo: ampliar nossa proposta de valor, expandir internacionalmente e consolidar o que chamamos de “CLT-as-a-Service” — um novo modelo de como empresas e profissionais trabalham juntos na América Latina.

O que você vai encontrar aqui:

Um ambiente colaborativo, diverso e dinâmico.

Muito espaço para autonomia, aprendizado e crescimento acelerado.

Oportunidade de participar da construção de um case de impacto real no mercado.

Uma empresa financeiramente sólida, premiada e reconhecida pelo mercado.

Estamos em um momento único: dobrando de tamanho ano após ano, com um time de alto nível e conquistando cada vez mais espaço no mercado. Esse é o lugar certo para quem quer aprender muito, deixar sua marca e construir algo relevante de verdade

Quer fazer parte dessa história e deixar o seu legado? Vem ser Hero!!

Main responsibilities
  • Projetar, desenvolver e otimizar pipelines de dados utilizando Cloud Run (Python), Airflow e dbt.
  • Criar e manter integrações de dados com diversas fontes usando Airbyte.
  • Gerenciar e configurar serviços no Google Cloud Platform (GCP): BigQuery, Cloud Storage, GKE e Pub/Sub, otimizando performance e escalabilidade.
  • Implementar e evoluir a arquitetura Medallion.
  • Garantir qualidade e governança dos dados, implementando monitoramento e alertas proativos.
  • Participar de code reviews e promover boas práticas de desenvolvimento com GitHub.
  • Colaborar com o time de dados em decisões técnicas, propondo soluções eficazes e sustentáveis.
Requirements and skills
  • Experiência sólida com Python aplicado à engenharia de dados.
  • Domínio de ferramentas do GCP, especialmente: BigQuery, Cloud Storage, Cloud Run e Pub/Sub.
  • Conhecimentos práticos em dbt e SQL para transformação de dados.
  • Experiência com orquestração de pipelines com Apache Airflow.
  • Familiaridade com arquitetura Medallion e boas práticas de versionamento de código.

Não é obrigatório, mas será muito legal se você tiver:

  • Experiência com monitoramento de pipelines e automação de processos de dados.
  • Conhecimento em infraestrutura e gerenciamento de clusters Kubernetes (GKE).
  • Vivência em ambientes ágeis e cultura DevOps.
Additional information

Proposta - CONTRATO DE PRESTAÇÃO DE SERVIÇOS DE 6 MESES (PODENDO SER EXTENDIDO POR MAIS 6 MESES)

  • Duração do contrato: 6 meses
  • Tempo dedicado: 40 horas semanais com disponibilidade em horário comercial
  • Condições de Pagamento: emissão de Nota Fiscal mensal via CNPJ, com valor proporcional às horas trabalhadas
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.