En JAKALA estamos buscando un/a Data Solutions Architect para liderar el diseño, desarrollo y supervisión de las soluciones técnicas que requieran los proyectos de nuestros clientes.
Ubicación: modalidad híbrida en nuestras oficinas de Madrid, Barcelona, Pamplona o Gijón.
¿Buscas 100% remoto y cumples con los requisitos clave?
¡Te invitamos a postular igualmente!
Funciones:
- Diseño de soluciones: Diseñar arquitecturas técnicas basadas en los requisitos del cliente, asegurando escalabilidad, seguridad, rendimiento y costo-eficiencia. Seleccionar tecnologías (cloud, bases de datos, herramientas de integración, etc.) adecuadas para cada caso. Documentar soluciones de forma clara para stakeholders técnicos y no técnicos. Conectar plataformas Martech (como CRMs, CDPs, herramientas de analítica y automatización). Diseñar APIs y procesos de integración (ETL/ELT, streaming, eventos).
- Planificación y estimación de esfuerzos del equipo: Reunirse con clientes o usuarios internos para entender necesidades y objetivos de negocio. Traducir requerimientos funcionales en requerimientos técnicos.
- Especialización en la nube: Definir y gobernar arquitecturas cloud (GCP, AWS, Azure) usando servicios gestionados, serverless, etc. Diseñar flujos CI/CD, seguridad, monitorización y políticas de acceso (IAM). Optimizar costes de infraestructura en la nube.
- Soporte a equipos técnicos: Serás el primer responsable del delivery técnico. Dar soporte y supervisión técnica a desarrolladores, data engineers o DevOps. Revisar código o infraestructura como código (IaC) si es necesario. Resolver bloqueos técnicos en los equipos.
- Gobierno y calidad: Velar por el cumplimiento de buenas prácticas en arquitectura, seguridad y gestión de datos. Participar en comités de arquitectura o revisión de soluciones de terceros.
Requisitos:
- Must: Experiencia mínima de 5 años en entornos de datos, con al menos 2 años diseñando arquitecturas cloud. Experiencia liderando equipos técnicos o coordinando proyectos complejos de datos. Conocimiento de Google Cloud Platform (GCP). Dominio de herramientas y servicios de datos en cloud: BigQuery, Cloud Storage, Cloud SQL, Pub/Sub, Dataflow. Lenguajes de programación y scripting: SQL y Python. Experiencia en data integration, data quality y data cleaning. Experiencia en definición e implementación de políticas de seguridad, privacidad (GDPR) e IAM. Buen entendimiento de metodologías de diseño y modelado de datos (Kimball, Inmon, Data Vault). Conocimiento en prácticas de optimización de costes y rendimiento en entornos cloud.
- Nice to have: Visión estratégica y enfoque a negocio. Certificación en Google Cloud Platform (Professional Data Engineer o Cloud Architect). Experiencia con herramientas big data: Spark, Hadoop o similares. Experiencia en otras nubes (AWS o Azure). Capacidad de interlocución con perfiles técnicos y no técnicos. Conocimientos de machine learning y herramientas asociadas (BigQuery ML, AutoML, Tensorflow, spark ml).
¿Qué ofrecemos?
- Modelo 100% remoto o híbrido (2 días/semana en oficina).
- Seguro médico de salud, Wellhub para cuidado físico y mental.
- Retribución flexible con ahorros fiscales en restauración, transporte, guardería, etc.
- 28 días de vacaciones al año, 3 semanas full remote.
- Path de carrera y acceso a certificaciones (Google, Salesforce, Adobe).
- Programas de capacitación tecnológica, laboratorio de soluciones, formación en idiomas.
Sobre la empresa
Somos un ecosistema que impulsa el valor a través de talento y soluciones innovadoras. Líder en Martech en Europa, con sede en Milán y presencia global. Contamos con más de 3,000 empleados, 900 clientes en 30 países, y facturación superior a 500 millones de euros. Como Empresa B, promovemos bienestar y sostenibilidad.
El anuncio original en: Kit Empleo