Una empresa global de consultoría tecnológica y desarrollo de software, especializada en ingeniería digital, transformación empresarial y servicios IT para grandes empresas con la que colaboramos en Joppy busca incorporar un/a Backend Software Engineer para unirse a un nuevo equipo de AI platform de Barcelona.
- Desarrollar y mantener la infraestructura y plataforma esenciales para desplegar, monitorizar y gestionar soluciones de ML en producción, asegurando rendimiento y escalabilidad.
- Colaborar estrechamente con los equipos de data science en el desarrollo de entornos y flujos de trabajo de AI/ML punteros sobre AWS.
- Colaborar con científicos de datos de I+D para comprender sus desafíos y ayudarlos a llevar a producción pipelines, modelos y algoritmos de ML orientados a ciencia innovadora.
- Asumir la responsabilidad de todos los aspectos del desarrollo de software: diseño, implementación, aseguramiento de calidad (QA) y mantenimiento.
- Liderar procesos tecnológicos desde el desarrollo conceptual hasta la entrega de resultados del proyecto.
- Coordinarse con otros equipos para mejorar nuestro stack tecnológico y habilitar la adopción de los últimos avances en procesamiento de datos y AI.
- Experiencia significativa en entornos de nube AWS (imprescindible). Conocimiento de SageMaker, Athena, S3, EC2, RDS, Glue, Lambda, Step Functions, EKS y ECS es esencial.
- Mentalidad moderna DevOps, utilizando herramientas como Docker y Git.
- Experiencia con tecnologías de infraestructura como código, como Ansible, Terraform y CloudFormation.
- Fuertes habilidades de programación, preferentemente en Python, aunque se valorará cualquier lenguaje con nivel excepcional.
- Experiencia gestionando plataformas y servicios empresariales, incluyendo nuevas demandas y solicitudes de funcionalidades por parte de clientes.
- Experiencia con contenedores y arquitecturas de microservicios, por ejemplo Kubernetes, Docker y enfoques serverless.
- Experiencia con Continuous Integration y la creación de pipelines de entrega continua usando CodePipeline, CodeBuild y CodeDeploy.
- Experiencia en entornos regulados bajo GxP.
- Excelentes habilidades de comunicación, análisis y resolución de problemas.
- Experiencia construyendo pipelines de procesamiento de datos a gran escala, ej. Hadoop/Spark y SQL.
- Uso de herramientas de modelado de Data Science, ej. R, Python y notebooks como Jupyter.
- Experiencia en múltiples nubes (AWS/Azure/GCP).
- Conocimiento demostrable en la creación de entornos de MLOps listos para producción.
- Experiencia mentorando, formando y apoyando a colegas o clientes menos experimentados.
- Familiaridad con principios y prácticas ágiles SAFe.
- Plan de compra de acciones para empleados de EPAM
- Baja por enfermedad 100% remunerada
- Certificaciones profesionales
- Cursos de idiomas