Nuestro cliente
Nuestro cliente es una empresa especializada en consultoría, desarrollo e implementación de soluciones basadas en Sistemas de Información Geográfica (GIS). Con más de dos décadas de experiencia, colabora con entidades públicas y privadas, ofreciendo servicios tecnológicos innovadores y personalizados para la gestión del territorio. Su equipo multidisciplinar trabaja con metodologías avanzadas y en constante formación, lo que les permite adaptarse a nuevas tecnologías y mantener altos estándares de calidad.
Posición
Actualmente estamos buscando un/a Ingeniero de datos especializado en Databricks.
Formación
- Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
- Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
- Databricks Certified Data Engineer Associate (recomendable).
- Databricks Certified Data Engineer Professional (valorable).
- Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia
- +2 años en tratamiento, explotación y análisis de datos en entornos productivos.
- Experiencia sólida en Databricks:
- Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
- Operación de pipelines con Databricks Workflows/Jobs.
- Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
- Experiencia en Delta Lake y patrones Lakehouse:
- Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.
- Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
- Experiencia en calidad de datos:
- Detección, registro, seguimiento y resolución de incidencias de calidad.
- Definición de reglas de validación y monitorización.
- Experiencia en soporte a usuarios y herramientas de explotación.
Conocimientos: Databricks / Lakehouse (imprescindible)
- Databricks Lakehouse y mejores prácticas de desarrollo/operación.
- Unity Catalog:
- Catálogo, permisos (RBAC), auditoría, lineage y gobernanza.
- Databricks SQL.
- Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.
Lenguajes
Cloud
- Azure (preferente):
- ADLS Gen2, Azure Key Vault, Entra ID (Azure AD).
- Integración/ingesta (valorable): Azure Data Factory.
- Capacidad de trasladar el mismo enfoque a:
- AWS (S3, IAM/KMS) y/o GCP (GCS, IAM/KMS).
Operación
- Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.
Idiomas
- Catalán (leído, hablado y escrito).
Tareas principales
- Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
- Implementar y operar arquitectura Lakehouse con Delta Lake.
- Definir e implantar controles de calidad de datos.
- Crear y mantener datasets listos para consumo.
- Gestionar gobernanza con Unity Catalog.
- Mejorar rendimiento y costes.
- Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
- Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
- Experiencia en proyectos de Business Intelligence y definición de KPIs.
- Herramientas BI: Power BI / Superset / Tableau.
- Orquestación/ELT: dbt, Airflow, ADF (si aplica).
- Conocimientos de dominios de movilidad/transporte/servicios públicos.
- Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
- Mentalidad analítica, rigor y orientación al detalle (calidad del dato).
- Comunicación clara con perfiles técnicos y negocio.
- Trabajo en equipo y colaboración transversal.
- Responsabilidad en gestión de datos críticos y mejora continua.
- Adaptabilidad a cambios de prioridades/procesos
Se ofrece
- Modalidad Hibrida
- Aprendizaje y desarrollo en la empresa.
- Salario competitivo.
- Incorporación inmediata.
Si has llegado hasta aquí y quieres saber más, ¡inscríbete en la oferta!