Ativa os alertas de emprego por e-mail!
Melhora as tuas possibilidades de ir a entrevistas
Cria um currículo adaptado à oferta de emprego para teres uma taxa de sucesso superior.
Uma oportunidade para um Engenheiro de Dados em uma empresa inovadora em São Paulo, que busca um profissional para desenvolver e otimizar pipelines de dados. O candidato ideal terá experiência em engenharia de dados, automação e integração de dados. Oferecemos um ambiente de trabalho flexível e remoto, com benefícios competitivos e oportunidades de crescimento.
Offered by Fundação Instituto de Administração. Apply your new skills to real-world projects using the latest industry tools & techniques. 24/7 Customer Support. 14d Money-Back Guarantee. Find A Course. Earn A Certificate. Learn Something New. Earn a Course Certificate. Register Today. Flexible Online Learning. 100% Online Courses. Free 7-Day Trial. Courses: Android Development, iOS Development.
Desculpe, este trabalho não está disponível em sua região
Estamos em busca de uma pessoa dedicada e com vontade de fazer a diferença para atuar na área de Dados. Se você ama tecnologia, gosta de desafios e acredita no poder da colaboração para alcançar grandes resultados, essa oportunidade é para você!
Garantirá qualidade, rastreabilidade e governança nas pipelines, utilizando Liquibase para versionamento, DataOps para automação e monitoramento para auditoria. Atuará lado a lado com DataOps Engineers, Analistas de Dados, DevSecOps e Engenharia de Plataforma, garantindo entregas seguras e eficientes. Trabalhará diretamente com o time cliente para a materialização das esteiras de dados e conformidade com padrões arquiteturais.
Desenvolver, otimizar e monitorar pipelines de dados para ingestão, transformação e exposição no Lakehouse. Criar e manter pipelines de ingestão do Oracle OLTP para o Lakehouse, garantindo baixa latência e alta disponibilidade. Organizar e otimizar camadas do Data Lake, garantindo dados estruturados para múltiplos consumidores. Implementar e otimizar estratégias de DataVault e Data Mesh, garantindo governança e rastreabilidade. Criar e otimizar Data Marts para consumo analítico, garantindo performance para BI e Data Science. Garantir observabilidade e rastreabilidade dos dados, implementando logs, métricas e monitoramento contínuo. Atuar junto ao time cliente para materializar as esteiras de dados, garantindo conformidade com padrões arquiteturais. Garantir segurança e compliance dos dados, implementando controles de acesso, anonimização e auditoria. Apoiar a otimização e escalabilidade do ambiente de dados, garantindo eficiência operacional e suporte a alto volume de dados.
Ingestão de Dados: Oracle GoldenGate, CDC, Azure Data Factory, Apache Airflow. Armazenamento e Processamento: Databricks, Delta Lake, Snowflake, Oracle Data Intelligence Platform. Transformação e Modelagem: SQL avançado, Apache Spark, Data Vault, Data Mesh. Automação e Versionamento: Liquibase para versionamento de schema e DataOps para automação. Exposição de Dados: APIs REST, RabbitMQ/Kafka para eventos, Data Marts para consumo analítico. Monitoramento e Observabilidade: Azure Monitor, Prometheus, OpenTelemetry, Data Lineage. DevSecOps e Infraestrutura como Código: Terraform, Docker, Kubernetes.