Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro De Dados Pleno (Gcp)

Uol - Universo Online

Propriá

Híbrido

BRL 20.000 - 80.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de serviços digitais está buscando profissionais para atuar no ecossistema de dados. O candidato ideal terá formação em áreas correlatas, com conhecimento sólido em Python e SQL, além de experiência com Google Cloud Platform e BigQuery. As responsabilidades incluem otimização de processos, ingestão de dados e desenvolvimento de soluções técnicas. A posição oferece um ambiente colaborativo e a opção de trabalho híbrido, com presença uma vez por semana em São Paulo.

Qualificações

  • Experiência em projetos de ingestão e transformação de dados.
  • Vivência em metodologias ágeis, como Scrum, Lean ou Kanban.
  • Experiência com arquitetura cliente-servidor.

Responsabilidades

  • Apoiar nas definições técnicas do ecossistema de dados utilizando Google Cloud.
  • Implementar melhorias na arquitetura e processos para otimizar performance.
  • Desenvolver e manter processos de ingestão e tratamento de dados.
  • Contribuir para geração de conhecimento e criação de novos produtos de dados.
  • Aplicar abordagens analíticas para solução de problemas.
  • Projetar e implementar soluções técnicas para processamento de dados.
  • Documentar processos e decisões técnicas, garantindo rastreabilidade.

Conhecimentos

Linguagem de programação Python
SQL
Cloud Functions
Airflow
Kafka
Pub/Sub
Dataflow
Power BI
Inteligência Artificial

Formação académica

Formação superior em Estatística, Matemática, Ciência de Dados, Big Data

Ferramentas

Google Cloud Platform (GCP)
BigQuery
NoSQL
Modelo de dados SAP ECC ou S/4HANA
Descrição da oferta de emprego

O UOL Conteúdo e Serviços é muito mais do que a maior empresa de conteúdo, serviços e produtos digitais da América Latina. Já são 25 anos inovando e fazendo acontecer, afinal, para quem foi responsável por conectar a primeira pessoa do Brasil à internet, é essencial continuar criando conteúdo e, mais do que isso, criando conexões. A busca contínua por inovação é o que nos mantêm em movimento, e isso só é possível por causa das pessoas que fazem parte deste universo.

Aqui, você encontrará um ambiente colaborativo, disruptivo e de aprendizado constante. Quer fazer parte desse time? Então, confira esta oportunidade e #VemProUOL!

No UOL todas as pessoas são bem-vindas, sem distinção de gênero, orientação sexual, etnia, cultura, religião, deficiência etc. O importante é você gostar de desafios, trabalhar bem em equipe, vivenciar nossa cultura e nossa missão de conectar cada brasileiro e brasileira ao seu universo.

Responsabilidades e atribuições

Apoiar nas definições técnicas do ecossistema de dados utilizando a plataforma Google Cloud.

Implementar melhorias na arquitetura e nos processos, visando otimizar performance, monitoramento e evolução dos produtos de dados.

Desenvolver e manter processos de ingestão, tratamento, controle de segurança e disponibilização de dados para diferentes consumidores (serviços, front-end, entre outros).

Contribuir para a geração de conhecimento e criação de novos produtos de dados , alinhados às necessidades estratégicas e operacionais do negócio.

Aplicar abordagens analíticas para resolução de problemas e identificação de oportunidades de melhoria.

Projetar e implementar soluções técnicas para obtenção, processamento e armazenamento de dados provenientes de diversas fontes.

Documentar processos, decisões técnicas e fluxos de dados , garantindo rastreabilidade, alinhamento entre áreas e facilidade de manutenção das soluções.

Requisitos e qualificações

Formação superior completa em Estatística, Matemática, Ciência de Dados, Big Data ou áreas correlatas.

Atuação em projetos de ingestão e transformação de dados.

Domínio da linguagem de programação Python.

Experiência com Google Cloud Platform (GCP), especialmente BigQuery.

Conhecimento sólido em SQL.
  • Vivência com tecnologias como Cloud Functions, Airflow, Kafka ou Pub/Sub, Dataflow e ferramentas de visualização de dados (preferencialmente Power BI).
  • Conhecimento em soluções de Inteligência Artificial, como Vertex AI.
  • Familiaridade com bancos de dados NoSQL.

Conhecimento em modelos de dados SAP ECC ou S / 4HANA.

Desejável
  • Experiência com metodologias ágeis, como Scrum, Lean ou Kanban.
  • Vivência com arquitetura cliente-servidor.

Disponibilidade para trabalho híbrido com presencial em São Paulo (1 vez por semana).

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.