Activez les alertes d’offres d’emploi par e-mail !

développeur python GCP (IT) / Freelance

Innov and Co

Paris

Sur place

EUR 40 000 - 60 000

Plein temps

Il y a 18 jours

Résumé du poste

Une entreprise de technologie à Paris cherche un développeur Python pour rejoindre son équipe projet. Le candidat idéal aura une solide maîtrise de Python et de l'écosystème Google Cloud Platform (GCP). Il sera responsable de la collecte de données, du développement d'applications Big Data, et de l'intégration de modèles analytiques. Une bonne connaissance des pratiques de développement et d'intégration est requise. Ce poste offre une opportunité excitante de travailler sur des projets innovants en environnement Big Data.

Qualifications

  • Maîtrise de Python (Dask, Flask, Polars).
  • Expérience avec GCP : Cloud Run, Cloud Functions, BigQuery, Composer / Airflow.
  • Bonne connaissance des bonnes pratiques de développement, d'intégration et de déploiement continu.

Responsabilités

  • Réalisations de projets décisionnels, datamining, et data management.
  • Développement et industrialisation d'applications manipulant de gros volumes de données.
  • Analyse des besoins clients et conception de solutions analytiques.

Connaissances

Python
GCP
Développement API
Big Data
Data Management

Outils

Spark
Hadoop
Kafka
Spring Boot
Dask
Flask
Polars
BigQuery
Composer / Airflow
Description du poste

Dans le cadre des projets développés au sein de l'équipe Assets et projets Data, nous recherchons un développeur Python dans l'écosystème GCP (Google Cloud Platform).

Le candidat sera responsable de la mise en place de la collecte et de la mise à disposition des données au sein de l'entreprise, ainsi que de l'industrialisation et de la mise en production des traitements sur les données, tels que la création de tableaux de bord ou l'intégration de modèles statistiques. Il travaillera en lien avec les équipes métiers et d'analyse.

Responsabilités principales :
  1. Maîtriser l'utilisation avancée des données, réaliser des projets décisionnels, datamining, et data management.
  2. Assurer le développement et l'industrialisation d'applications manipulant de gros volumes de données.
  3. Analyser les besoins clients et concevoir des solutions analytiques, statistiques ou de Machine Learning.
  4. Concevoir et réaliser des solutions Big Data : collecte, transformation, analyse et visualisation de données volumineuses avec un haut niveau de performance.
  5. Mettre à disposition la donnée aux équipes utilisatrices et déployer des modèles statistiques en production.
  6. Suivre les projets de développement, développer des jobs Spark, traiter et ingérer différents formats de données.
  7. Développer des scripts, des collectes de données, des jobs de traitement et des mappings.
  8. Créer des moyens de restitution via fichiers, API ou dashboards.
  9. Collecter et fournir les données sous forme d'API ou fichiers, en développant des pipelines d'ingestion (streaming et batch) et des jobs Spark pour le prétraitement et le calcul des KPI.
  10. Développer des API d'ingestion et de traitement dans un environnement HDP.
  11. Participer à la conception, à la mise en place et à l'administration de solutions Big Data, y compris l'installation et la configuration de clusters Hadoop.
  12. Mettre en place des services d'extraction de données du système legacy avec Spring Boot, puis transférer les données vers un data lake via Kafka.
  13. Normaliser et agréger les données pour produire des rapports sous forme de Business Views.
Profil recherché :
  • Maîtrise de Python (Dask, Flask, Polars).
  • Expérience avec GCP : Cloud Run, Cloud Functions, BigQuery, Composer / Airflow. La connaissance de GKE serait un plus.
  • Bonne connaissance des bonnes pratiques de développement, d'intégration et de déploiement continu.
  • Capacité à travailler sur des sujets variés en transverse.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.