¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una empresa tecnológica, filial de IBM, busca profesionales apasionados por AWS Cloud para participar en proyectos nacionales e internacionales. Se valoran conocimientos en Python, Spark y Big Data. Únete a una comunidad enfocada en la innovación y mejora continua en el ámbito de la nube.
Introduzca el título del trabajo o la habilidad para buscar Trabajos relevantes
Introduzca su ciudad o código postal para mostrar los trabajos en su ubicación
¿Quiere actualizaciones para este y trabajos similares?
Lo sentimos, este trabajo no está disponible en su región
Bluetab, una compañía certificada como un Great Place to Work y reconocida como uno de los mejores lugares para trabajar, es una filial de IBM. Somos una compañía muy enfocada en tecnología que nos ha posicionado como el brazo fuerte de IBM en Data, Cloud, ML & IA, ayudando a empresas clave de diversos sectores a acelerar y optimizar sus estrategias en plataformas de datos y en la nube, maximizando las ventajas de su arquitectura y entornos de desarrollo.
Dentro de nuestra línea estratégica de Cloud Native, buscamos profesionales apasionados por AWS Cloud (somos socios de AWS) para participar en proyectos a nivel nacional e internacional donde podrás poner a prueba tus habilidades al máximo.
Podrás integrarte en la creciente Comunidad AWS/CloudNative al estilo Bluetab. Estarás enfocado en construir aplicaciones que aprovechan las ventajas de la computación en la nube, como la escalabilidad, bajo acoplamiento, resiliencia, observabilidad, optimización de costes y velocidad de entrega. ¿Te interesa?
¿Qué conocimientos y experiencia valoramos en Bluetab?
Buscamos un profesional con al menos 3 años de experiencia trabajando con Python, Spark y AWS Cloud. Si tienes experiencia con tecnologías punteras y te apasiona el mundo del Big Data y la nube, ¡te estamos esperando!
Experiencia en proyectos de datos con AWS y arquitectura Big Data.
Trabajo con AWS EMR con Spark y almacenamiento escalable en Cloud S3.
Despliegue de infraestructura CI/CD con herramientas como Terraform y/o CloudFormation.
Integración de datos con lenguajes como Scala, Python o PySpark.
Implementación de Data Pipelines usando tecnologías serverless en AWS (Lambda, Glue, ECS).
Experiencia con bases de datos como SQL, Redshift, PostgreSQL.
Conocimientos de SAP serán un plus.