Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

INGENIERO DE DATOS - DATABRICKS

Juno Projects

Barcelona

Híbrido

EUR 40.000 - 60.000

Jornada completa

Hace 3 días
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una firma de consultoría tecnológica en Barcelona busca un Ingeniero de datos especializado en Databricks. El candidato ideal tendrá más de 2 años de experiencia y conocimientos en sistemas de información geográfica, así como en calidad de datos y herramientas en la nube. Se ofrece un entorno de trabajo híbrido, salario competitivo y oportunidades de aprendizaje y desarrollo.

Servicios

Salario competitivo
Aprendizaje y desarrollo
Modalidad híbrida

Formación

  • Más de 2 años de experiencia en análisis de datos en entornos productivos.
  • Experiencia en desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
  • Conocimientos en calidad de datos y gestión de incidencias.

Responsabilidades

  • Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
  • Implementar y operar arquitectura Lakehouse con Delta Lake.
  • Definir controles de calidad de datos y gestionar la gobernanza con Unity Catalog.

Conocimientos

Databricks
Análisis de datos
Python
SQL avanzado
Gestión de calidad de datos

Educación

Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines
Posgrado en Big Data / Cloud / Arquitecturas de datos

Herramientas

Azure Data Factory
Power BI
Apache Spark
Descripción del empleo
Nuestro cliente

Nuestro cliente es una empresa especializada en consultoría, desarrollo e implementación de soluciones basadas en Sistemas de Información Geográfica (GIS). Con más de dos décadas de experiencia, colabora con entidades públicas y privadas, ofreciendo servicios tecnológicos innovadores y personalizados para la gestión del territorio. Su equipo multidisciplinar trabaja con metodologías avanzadas y en constante formación, lo que les permite adaptarse a nuevas tecnologías y mantener altos estándares de calidad.

Posición

Actualmente estamos buscando un/a Ingeniero de datos especializado en Databricks.

Formación
  • Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
  • Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
  • Databricks Certified Data Engineer Associate (recomendable).
  • Databricks Certified Data Engineer Professional (valorable).
  • Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia
  • +2 años en tratamiento, explotación y análisis de datos en entornos productivos.
  • Experiencia sólida en Databricks:
    • Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
    • Operación de pipelines con Databricks Workflows/Jobs.
    • Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
  • Experiencia en Delta Lake y patrones Lakehouse:
    • Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.
    • Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
  • Experiencia en calidad de datos:
    • Detección, registro, seguimiento y resolución de incidencias de calidad.
    • Definición de reglas de validación y monitorización.
  • Experiencia en soporte a usuarios y herramientas de explotación.
Conocimientos: Databricks / Lakehouse (imprescindible)
  • Databricks Lakehouse y mejores prácticas de desarrollo/operación.
  • Unity Catalog:
    • Catálogo, permisos (RBAC), auditoría, lineage y gobernanza.
  • Databricks SQL.
  • Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.
Lenguajes
  • Python.
  • SQL avanzado.
Cloud
  • Azure (preferente):
    • ADLS Gen2, Azure Key Vault, Entra ID (Azure AD).
    • Integración/ingesta (valorable): Azure Data Factory.
  • Capacidad de trasladar el mismo enfoque a:
    • AWS (S3, IAM/KMS) y/o GCP (GCS, IAM/KMS).
Operación
  • Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.
Idiomas
  • Catalán (leído, hablado y escrito).
Tareas principales
  • Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
  • Implementar y operar arquitectura Lakehouse con Delta Lake.
  • Definir e implantar controles de calidad de datos.
  • Crear y mantener datasets listos para consumo.
  • Gestionar gobernanza con Unity Catalog.
  • Mejorar rendimiento y costes.
  • Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
  • Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
  • Experiencia en proyectos de Business Intelligence y definición de KPIs.
  • Herramientas BI: Power BI / Superset / Tableau.
  • Orquestación/ELT: dbt, Airflow, ADF (si aplica).
  • Conocimientos de dominios de movilidad/transporte/servicios públicos.
  • Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
  • Mentalidad analítica, rigor y orientación al detalle (calidad del dato).
  • Comunicación clara con perfiles técnicos y negocio.
  • Trabajo en equipo y colaboración transversal.
  • Responsabilidad en gestión de datos críticos y mejora continua.
  • Adaptabilidad a cambios de prioridades/procesos
Se ofrece
  • Modalidad Hibrida
  • Aprendizaje y desarrollo en la empresa.
  • Salario competitivo.
  • Incorporación inmediata.

Si has llegado hasta aquí y quieres saber más, ¡inscríbete en la oferta!

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.