
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa de tecnologia em Piauí está buscando um Analista de Dados III para projetar e manter arquiteturas de dados robustas. Os requisitos incluem formação em Ciência da Computação e 2 anos de experiência, além de habilidades em SQL e Python. A empresa oferece um pacote de benefícios abrangente, incluindo assistência médica, vale refeição, PLR, e auxílio home office. Se você está preparado para brilhar, esta é a sua chance!
CHEGOU SUA HORA DE BRILHAR! Você quer se tornar um diamante? Então está no lugar certo! Conheça um pouco mais sobre a Neurotech e a vaga antes de fazer sua inscrição. Lembramos que esta vaga também está disponível para Pessoas com Deficiência (PCD) e para todos os demais públicos, em fortalecimento ao nosso valor Pluralidade.
Somos uma empresa pioneira na criação de soluções avançadas em Inteligência Artificial, Machine Learning e Big Data. Há mais de 20 anos, atendemos ao mercado brasileiro, oferecendo soluções para diversos clientes nos segmentos de Saúde, Crédito e Seguros.
Desafios e uma cultura de excelência fazem parte do nosso dia a dia. Esses são alguns dos motivos pelo qual mais de 90% dos nossos diamantes recomendam a Neurotech para outras pessoas, nos levando a uma nota geral de 4,5. ⭐
E você também pode brilhar conosco.
Estamos em busca de uma Analista de Dados III (Engenharia) . Conheça mais sobre a vaga :
Você será responsável por projetar, construir e manter arquiteturas de dados escaláveis e robustas, garantindo que nossos cientistas e analistas de dados tenham acesso a dados de alta qualidade para criar soluções inovadoras para nossos clientes.
SQL - Experiência sólida na criação de consultas complexas e otimizadas para extração e manipulação de dados.
Python - Proficiência em Python para desenvolvimento de scripts de ETL, com uso de bibliotecas como Pandas e NumPy.
Ferramentas de Big Data - Experiência com ecossistemas de Big Data, especialmente com Apache Spark.
Orquestradores de Workflow - Conhecimento em ferramentas de orquestração como Airflow para agendamento e monitoramento de pipelines.
Versionamento de Código - Conhecimento em Git, seguindo modelos como o GitFlow.
Cloud (AWS) - Experiência com serviços da AWS, que são a base da nossa infraestrutura de cloud.
Ficou com alguma dúvida? Pode entrar em contato!
#VemPraNeuro