Activez les alertes d’offres d’emploi par e-mail !

Développeur Python et Java sur AWS (Glue & Lambda ) (H/F)

Espace Freelance

Noisy-le-Grand

Sur place

EUR 55 000 - 70 000

Plein temps

Il y a 8 jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Repartez de zéro ou importez un CV existant

Résumé du poste

Un réseau de consultants indépendants recherche un Développeur Python et Java sur AWS pour une mission en Essonne. Vous serez responsable de la conception et du développement de systèmes ETL, optimisant la performance et l'intégration des données. Les candidats doivent être titulaires d’un Bac+5 et avoir une expérience significative sur AWS, y compris ses outils clés comme Glue et Lambda.

Qualifications

  • Titulaire d’un Bac+5 en informatique, data engineering ou équivalent.
  • Expérience de 3 à 5 ans sur AWS Glue et AWS Lambda.
  • Maîtrise de Python, Java, bases de données SQL et NoSQL.

Responsabilités

  • Développer et optimiser des workflows ETL sur AWS Glue.
  • Implémenter des fonctions serverless sur AWS Lambda.
  • Assurer la performance des pipelines de données.

Connaissances

Python
Java
AWS Glue
AWS Lambda
Terraform
CI/CD
SQL
NoSQL
Monitoring
Debugging

Formation

Bac+5 en informatique, data engineering ou équivalent

Outils

GitLab CI/CD
Terraform
CloudFormation

Description du poste

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients : un Développeur Python et Java sur AWS (Glue & Lambda) (H/F) dans le sud de l’Essonne (91).

Votre mission :

Missions Principales :
  1. Conception et Développement d’ETL :
    • Développer et optimiser des workflows ETL sur AWS Glue en Python.
    • Implémenter des fonctions serverless sur AWS Lambda en Python ou Java pour traiter les données en temps réel.
    • Gérer le stockage des données via S3, DynamoDB et Redshift.
  2. Optimisation des Performances :
    • Assurer la performance et la scalabilité des pipelines de données.
    • Mettre en place des stratégies d’optimisation pour minimiser les coûts et améliorer la latence.
    • Concevoir des modèles de données adaptés aux traitements analytiques et transactionnels.
  3. Sécurité et Qualité des Données :
    • Implémenter des contrôles de qualité et de validation des données.
    • Mettre en place des stratégies de monitoring et logging (selon les directives des équipes Cloud et Sécurité du groupe).
  4. Intégration et Automatisation :
    • Intégrer les pipelines ETL aux différentes sources et destinations de données (API, bases de données, entrepôts de données).
    • Automatiser les déploiements et tests via des pipelines Gitlab CI/CD sur AWS via Terraform.
    • Collaborer avec les équipes DevOps et Data pour l’amélioration continue des processus.

Votre profil :

  • Titulaire d’un Bac+5 en informatique, data engineering ou équivalent.
  • Excellente maîtrise de Python et Java avec une expérience de 3 à 5 ans avec AWS Glue et AWS Lambda.
  • Bonne connaissance des bases de données SQL et NoSQL (PostgreSQL, DynamoDB, Redshift).
  • Connaissance de Magento (Adobe) et compréhension des architectures orientées événements (EventBridge, SQS, SNS, Kinesis).
  • Expérience avec Terraform et CloudFormation pour l’infrastructure as code.
  • Expérience en automatisation et CI/CD sur AWS avec GitLab CI/CD ou AWS CodePipeline.
  • Compétences en Monitoring et Debugging sur AWS (CloudWatch, X-Ray, Step Functions).

Les certifications AWS (AWS Certified Developer, Data Analytics, Solutions Architect) et une connaissance en DevOps sont appréciées.

Localisation :

La mission se déroule à Longpont-sur-Orge (91), avec une présence obligatoire sur site d’au moins 3 jours par semaine. Le site n’est pas accessible en transports en commun.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.