Vous intégrerez, au sein de notre Pôle Transformation Numérique, une équipe d’experts en Data en charge d’accompagner nos clients.
Vous serez détaché(e) chez un acteur majeur du secteur de l'Assurance dans de Data Engineers.
Vous serez directement rattaché(e) au Responsable de l’équipe Data Delivery au sein du Data and AI Office.
Vous allez contribuer directement aux projets des directions métier (ex : Fraude santé, Pricing IARD, Optimisation du lead management, Fragilité Auto, …).
Votre rôle et vos missions :
- Passer de la donnée brute à de la donnée exploitable, exposée sous forme de tables requêtables dans le Datalake.
- Consolider ces données au fur et à mesure de leur alimentation récurrente dans le Datalake.
- Les exploiter pour atteindre la finalité business (exposition de Business View, réintégration des résultats dans le SI, service de scoring, …).
- Mettre en place et garantir le respect dans la durée d'un processus qualité sur l'ensemble du cycle de DEV (documents, tests unitaires / intégration / fonctionnels, commentaires, versionning, etc.).
Qualifications
Quel profil pour ce poste :
- Vous êtes issu(e) d’une formation Bac+5 (École d’ingénieur, Université ou équivalent …) en informatique ou scientifique.
- Vous justifiez d’une expérience significative en tant que Data Engineer.
- Vous êtes un bon communiquant et disposez de capacités d’analyse et de synthèse éprouvées.
- Vous accordez de l’importance (et du temps) à la veille.
Quelles compétences/connaissances pour ce poste :
Compétences techniques :
- Connaissances avancées en développement en SPARK et idéalement PySpark (Spark en Python).
- Une expérience sur un cloud provider public comme Azure (idéalement), AWS, ou GCP.
- Connaissances avancées d'outils de BI comme PowerBI (idéalement) ou Spotfire.
Compétences transverses :
- Capacité à interagir avec des parties prenantes diverses : Business analyst, Architectes, Métier.
- Expérience en mode de Delivery Agile (Scrum, Kanban, etc.…).
Et Idéalement :
- Des Connaissances sur Azure DevOps, Azure Pipeline, GIT, JIRA.
- Maitrise des Traitements Big Data en mode Streaming.
- Maitrise des Bases de données relationnelles et NoSQL.
- Une expérience professionnelle avec des outils comme Azure Databricks, Azure Data Lake Storage ou encore Azure Data Factory.
Si vous souhaitez relever de nouveaux défis et même si vous ne disposez pas de toutes ces compétences, n’hésitez pas à postuler. Nous nous engageons à être très réactif dans la gestion des candidatures.
Additional Information
Au-delà de vos expertises et compétences, nous recrutons aussi des personnalités, qui vont participer au développement d’ALTER SOLUTIONS.
Chez ALTER SOLUTIONS, vous pourrez être sollicités pour :
- Intervenir sur des phases de recrutement.
- Participer à des projets de R&D et veille.
- Rédiger des articles techniques et de publications diverses.
- Participer à des phases d’avant-vente.
- Animer des formations en interne.
- Participer à nos évènements mensuels d’Alter Campus, rendez-vous techniques de partages et d’échanges.
- Représenter ALTER SOLUTIONS dans le cadre d’évènements (Devoxx, Hackathon, Cloud Expo Europe…).
Notre processus de recrutement se décompose ainsi :
- Un premier entretien à distance.
- Test technique.
- Rencontre avec un Directeur Opérationnel et un Consultant Sénior.
- Si tout se passe bien, contractualisation RH.