Responsabilidades
- Profissionais que criam soluções tecnológicas em torno do ciclo de vida dos dados, passando pelos processos de ingestão, transformação, governança, organização e disponibilização de informações.
- Disponibilizar dados com origem globais (dados externos) numa base analítica para as áreas de negócio e garantir governança e acesso, seguindo as políticas e governanças estabelecidas pelo cliente.
- Realizar criação de pipelines de dados com DevOps, utilizando Terraform e Jenkins / github para automatizar criação de infraestrutura AWS e deploy de soluções
- Auxiliar analistas de dados na classificação de dados pessoais e sensíveis e sua configuração com AWS Lake Formation (permissão de acesso a colunas e linhas)
- Processar grandes volumes de dados com uso do Spark através do EMR Studio e AWS Glue Jobs e Workflow
- Auxiliar analistas de dados na criação de modelos dimensionais para anállise de dados (fatos e dimensões)
- Habilidades de programação em Python
- Relacionamento com a área de negócio para entendimento das origens e mapeamento dos dados
- Estruturação e consolidação de dados e indicadores na AWS, garantindo bases com os templates adequados para o consumo direto em ferramentas de PowerBi para construção de dashboards;
Requisitos / Qualificações
- Habilidades de programação em Python
- Relacionamento com a área de negócio para entendimento das origens e mapeamento dos dados
- Estruturação e consolidação de dados e indicadores na AWS, garantindo bases com os templates adequados para o consumo direto em ferramentas de PowerBi para construção de dashboards
- Realizar criação de pipelines de dados com DevOps, utilizando Terraform e Jenkins / github para automatizar criação de infraestrutura AWS e deploy de soluções
- Processar grandes volumes de dados com uso do Spark através do EMR Studio e AWS Glue Jobs e Workflow
- Auxiliar analistas de dados na classificação de dados pessoais e sensíveis e sua configuração com AWS Lake Formation (permissão de acesso a colunas e linhas)