En tant que Data Engineer, vous interviendrez sur des missions variées chez nos clients (ETI et grands groupes), en collaboration avec des équipes pluridisciplinaires. Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers d’ans la définition de leurs besoins et la valorisation de leurs données. Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d'animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes.
Vos principales responsabilités
Data Engineering
- Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
- Mettre en place des flux d’intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
- Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
- Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
- Industrialiser les traitements et mettre en œuvre les bonnes pratiques DevOps (CI/CD, monitoring).
Data Consulting
- Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
- Participer à la conception, l’implémentation et l’automatisation des flux de données répondant aux enjeux métiers.
- Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.
Innovation & veille
- Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
- Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.
Formation & Expérience
- Expérience significative avec plusieurs mises en production de pipelines ou projets data.
- Expérience indispensable : 3 ans en production de pipelines data.
- Bac+5 ou équivalent en réseau informatique.
- Compétences techniques :
- Langages : SQL, Python, Java.
- Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
- Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
- DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
- Cloud : AWS.
- Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
- IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
- Gestion du code : Git (GitFlow standard), GitHub.
- Pluses : DBT, Snowflake, Terraform, Dataiku, Databricks.
Soft skills
- Vous avez l'esprit analytique et aimez résoudre des problèmes complexes.
- Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers / CDO).
- Vous êtes curieux(se) et disposez d'une réelle appétence pour l'innovation et les nouvelles technologies.
Type de contrat
- CDI
- Contrat travail
- Durée du travail 35H/semaine
- Travail selon un rythme irrégulier et des pics d'activité
- Salaire : Selon le profil
Profil souhaité
- Expérience : 3 ans en production de pipelines data (indispensable)
- Bac+5 et plus ou équivalents en réseau informatique (indispensable)
- Compétence : Analyser, exploiter, structurer des données
- Anglais : cette langue est indispensable
Informations complémentaires
- Qualification : Employé qualifié
- Secteur d'activité : Conseil en systèmes et logiciels informatiques
Employeur
10 à 19 salariés
DEEP est né de la fusion de DIGORA, EBRC, ELGON et POST Telecom (B2B). Notre ambition : devenir l'acteur référent des services et solutions numériques innovants et responsables pour les entreprises en France, au Luxembourg et à l'international. Nos collaborateurs accompagnent chaque jour nos clients sur des enjeux stratégiques : cloud souverain, cybersécurité, data management, innovation digitale et infrastructures de confiance.