Job Requirements
A NTT DATA Inc. é uma empresa multinacional de tecnologia que oferece serviços de desenvolvimento de software, segurança, cloud e infraestrutura de TI. Segundo o Great Place to Work, está entre as melhores empresas de tecnologia para se trabalhar no Brasil, valorizando uma cultura inclusiva, liberdade para inovar, flexibilidade e respeito às pessoas.
A NTT DATA Inc. apoia a diversidade em sua totalidade, sendo aberta a todos, independentemente de deficiência, gênero, orientação sexual, raça, etnia, idade, origem ou estética.
Buscamos um(a) Analista de Dados Sênior (Data Scientist) para integrar nossa equipe. Você atuará alocado em um de nossos clientes, auxiliando na compreensão de necessidades e análise de demandas específicas, além de contribuir no desenho, desenvolvimento e implementação de soluções de estruturação de informações, incluindo dados de alta complexidade e volume.
Responsabilidades
- Desenvolver, implementar e manter pipelines de dados escaláveis e eficientes, garantindo o fluxo contínuo de informações para modelos analíticos e de machine learning.
- Colaborar com engenheiros de dados e desenvolvedores para assegurar qualidade, disponibilidade, integridade e governança dos dados ao longo de seu ciclo de vida.
- Realizar análises exploratórias e modelagens estatísticas para gerar insights relevantes e suportar decisões estratégicas de negócio.
- Prototipar e desenvolver soluções de machine learning utilizando bibliotecas como Pandas, Scikit-learn, PySpark e TensorFlow.
- Contribuir para a arquitetura de soluções de dados, promovendo boas práticas de engenharia e ciência de dados em ambientes produtivos.
- Automatizar processos de ingestão, tratamento e validação de dados de múltiplas fontes, incluindo bancos relacionais, APIs e data lakes.
- Documentar tecnicamente os projetos, incluindo dicionários de dados, notebooks analíticos e manuais de uso, garantindo reprodutibilidade e manutenção das soluções.
Requisitos
- Experiência com implementação de soluções ETL/ELT e integração de dados entre sistemas, utilizando ferramentas ou linguagens de programação para extração, padronização e carga de dados.
- Capacidade de projetar experimentos, interpretar resultados e desenvolver modelos matemáticos para suportar decisões de negócio.
- Conhecimento das melhores práticas em automação de carga, normalização e governança de dados.
- Experiência na implantação de modelos de Machine Learning.
- Experiência com análise de Big Data.
- Conhecimentos avançados em SQL, Java/Scala, Python e Shell Script, além de PySpark e orquestração de pipelines.
- Experiência com pelo menos uma nuvem: AWS, Azure, GCP ou IBM Cloud.
- Familiaridade com serviços Cloud como Azure Data Lake, Data Factory, Databricks.
- Conhecimento em ferramentas de processamento de dados como Apache Kafka, Flink e Spark.
- Experiência com ferramentas de visualização como Tableau, Power BI ou Matplotlib.
- Ótimas habilidades de resolução de problemas e capacidade de extrair insights acionáveis a partir de dados.