Ativa os alertas de emprego por e-mail!

Sr Data Scientist

Applicable Limited

Brasil

Presencial

BRL 120.000 - 180.000

Tempo integral

Há 24 dias

Resumo da oferta

Uma multinacional de tecnologia está em busca de um Analista de Dados Sênior (Data Scientist). O profissional irá atuar no desenvolvimento de soluções escaláveis para gestão e análise de dados complexos, contribuindo para decisões estratégicas no negócio. Se você possui experiência em Big Data, Machine Learning e integração de dados, essa é uma grande oportunidade de crescimento em uma empresa reconhecida como um ótimo lugar para trabalhar.

Qualificações

  • Experiência em soluções ETL/ELT e integração de dados entre sistemas.
  • Conhecimento em automação de carga, normalização e governança de dados.
  • Experiência em modelos de Machine Learning.

Responsabilidades

  • Desenvolver, implementar e manter pipelines de dados escaláveis.
  • Colaborar com engenheiros de dados e desenvolvedores para garantir a qualidade dos dados.
  • Documentar tecnicamente os projetos e soluções desenvolvidas.

Conhecimentos

Análise de Big Data
SQL
Python
Java/Scala
Shell Script
Resolução de problemas

Ferramentas

PySpark
Apache Kafka
Flink
Spark
Tableau
Power BI
Matplotlib
AWS
Azure
GCP
IBM Cloud

Descrição da oferta de emprego

Job Requirements

A NTT DATA Inc. é uma empresa multinacional de tecnologia que oferece serviços de desenvolvimento de software, segurança, cloud e infraestrutura de TI. Segundo o Great Place to Work, está entre as melhores empresas de tecnologia para se trabalhar no Brasil, valorizando uma cultura inclusiva, liberdade para inovar, flexibilidade e respeito às pessoas.

A NTT DATA Inc. apoia a diversidade em sua totalidade, sendo aberta a todos, independentemente de deficiência, gênero, orientação sexual, raça, etnia, idade, origem ou estética.

Buscamos um(a) Analista de Dados Sênior (Data Scientist) para integrar nossa equipe. Você atuará alocado em um de nossos clientes, auxiliando na compreensão de necessidades e análise de demandas específicas, além de contribuir no desenho, desenvolvimento e implementação de soluções de estruturação de informações, incluindo dados de alta complexidade e volume.

Responsabilidades

  • Desenvolver, implementar e manter pipelines de dados escaláveis e eficientes, garantindo o fluxo contínuo de informações para modelos analíticos e de machine learning.
  • Colaborar com engenheiros de dados e desenvolvedores para assegurar qualidade, disponibilidade, integridade e governança dos dados ao longo de seu ciclo de vida.
  • Realizar análises exploratórias e modelagens estatísticas para gerar insights relevantes e suportar decisões estratégicas de negócio.
  • Prototipar e desenvolver soluções de machine learning utilizando bibliotecas como Pandas, Scikit-learn, PySpark e TensorFlow.
  • Contribuir para a arquitetura de soluções de dados, promovendo boas práticas de engenharia e ciência de dados em ambientes produtivos.
  • Automatizar processos de ingestão, tratamento e validação de dados de múltiplas fontes, incluindo bancos relacionais, APIs e data lakes.
  • Documentar tecnicamente os projetos, incluindo dicionários de dados, notebooks analíticos e manuais de uso, garantindo reprodutibilidade e manutenção das soluções.

Requisitos

  • Experiência com implementação de soluções ETL/ELT e integração de dados entre sistemas, utilizando ferramentas ou linguagens de programação para extração, padronização e carga de dados.
  • Capacidade de projetar experimentos, interpretar resultados e desenvolver modelos matemáticos para suportar decisões de negócio.
  • Conhecimento das melhores práticas em automação de carga, normalização e governança de dados.
  • Experiência na implantação de modelos de Machine Learning.
  • Experiência com análise de Big Data.
  • Conhecimentos avançados em SQL, Java/Scala, Python e Shell Script, além de PySpark e orquestração de pipelines.
  • Experiência com pelo menos uma nuvem: AWS, Azure, GCP ou IBM Cloud.
  • Familiaridade com serviços Cloud como Azure Data Lake, Data Factory, Databricks.
  • Conhecimento em ferramentas de processamento de dados como Apache Kafka, Flink e Spark.
  • Experiência com ferramentas de visualização como Tableau, Power BI ou Matplotlib.
  • Ótimas habilidades de resolução de problemas e capacidade de extrair insights acionáveis a partir de dados.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.