Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Senior

h&k | Smart Tech. Human Touch

Barcelona

Híbrido

EUR 30.000 - 50.000

Jornada completa

Hace 10 días

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una consultora en crecimiento busca un Senior Data Engineer en Barcelona. El candidato ideal tendrá más de 5 años de experiencia y será responsable de implementar y optimizar entornos de Starburst y Data Lakehouse, integrando múltiples fuentes de datos. Se requiere dominio en PySpark y un nivel de inglés avanzado para colaborar con equipos internacionales. Ofrecemos una modalidad de trabajo híbrida y un entorno dinámico con oportunidades de formación.

Servicios

Modalidad híbrida
Salario variable en función de experiencia
Beneficios sociales
Formación continua
Flexibilidad horaria

Formación

  • Más de 5 años de experiencia como Data Engineer.
  • Dominio avanzado en procesamiento distribuido.
  • Capacidad de definir estrategias de datos.

Responsabilidades

  • Implementar y optimizar entornos de Starburst y Data Lakehouse.
  • Integrar múltiples fuentes de datos para análisis.
  • Colaborar con equipos de soporte y proveedores.

Conocimientos

Experiencia en PySpark
Procesamiento de grandes volúmenes de datos
Arquitectura de bases de datos
Inglés avanzado
DevOps

Educación

Titulación en Ingeniería Informática

Herramientas

Snowflake
Databricks
Azure
Kubernetes
Descripción del empleo
Senior Data Engineer en Barcelona

Desde estamos trabajando una posición de Senior Data Engineer para una consultora en pleno crecimiento, estarás asignado a un cliente del sector Gran Consumo.

  • + 3 años de experiencia
  • Procesos de ETL

Beneficios:

  • Modalidad híbrida
  • Salario variable en función de experiencia
  • Beneficios sociales
Descripción Del Trabajo

Funciones Principales:

  • Más de 5 años de experiencia como Data Engineer, trabajando con grandes volúmenes de datos en entornos cloud y on-premise.
  • Liderazgo técnico en proyectos y coordinación de equipos multidisciplinarios.
  • Dominio avanzado en procesamiento distribuido con PySpark, SparkSQL y Python.
  • Diseño y optimización de consultas SQL y NoSQL.
  • Sólida comprensión de modelado de datos y arquitectura de bases de datos.
  • Capacidad para definir estrategias de datos y colaborar con arquitectos en la construcción de soluciones escalables y seguras.
  • Inglés avanzado para comunicación con equipos y clientes internacionales en posibles colaboraciones en proyectos globales.
  • Plataformas y servicios de datos: Snowflake, Databricks, Cloudera Data Services.
  • Servicios cloud: Azure, AWS, GCP (incluyendo Fabric, Glue, Redshift, Dataproc, BigQuery).
  • Herramientas de integración y despliegue: conocimientos en DevOps (Azure Devops, Jenkins, Gitlab.), automatización y buenas prácticas de seguridad en la nube.
  • Deseable y valorable conocimientos en las siguientes tecnologías: DBT, PowerBI, Streamlit.
  • Certificaciones: se valoran certificaciones en las principales tecnologías mencionadas (Snowflake, Databricks, Azure, AWS, GCP).
  • Titulación en Ingeniería Informática, Telecomunicaciones o áreas afines.

08035 Barcelona, Catalonia WeHunt España

Senior Data Engineer 100% remoto - España
  • Rol de Senior Data Engineer
  • 100% remoto

Sobre el perfil:

Buscamos un Senior Data Engineer con especialización en Starburst (Trino) y Dell Data Lakehouse para unirse a nuestro equipo de IA y Datos.

Serás responsable de desplegar, mantener y optimizar las instalaciones de Starburst y Dell Data Lakehouse, permitiendo que nuestros clientes accedan sin problemas a sus datos a través de múltiples plataformas.

Funciones:

  • Implementar, administrar y optimizar entornos de Starburst (Trino) y Data Lakehouse (Dell, Databricks, Delta Lake o similares).
  • Configurar servidores, catálogos y aplicaciones, garantizando rendimiento y estabilidad.
  • Integrar múltiples fuentes de datos en una plataforma unificada para análisis.
  • Diseñar soluciones en contenedores (Kubernetes/OpenShift) escalables y eficientes.
  • Aplicar controles de seguridad y asegurar el cumplimiento normativo.
  • Automatizar tareas de mantenimiento y monitoreo mediante herramientas como Ansible.
  • Resolver incidencias técnicas y realizar análisis de causa raíz.
  • Planificar pruebas de recuperación ante desastres y elaborar documentación técnica.
  • Colaborar con equipos de soporte y proveedores para garantizar la continuidad operativa.
  • Más de 5 años de experiencia bajo el rol.
  • Experiencia en Trino/Starburst Enterprise/Galaxy (administración y CLI).
  • Conocimientos en Big Data (Hadoop, Hive, Spark) y nube (AWS, Azure, GCP).
  • Dominio de Unix/Linux y orquestación de contenedores (Kubernetes/OpenShift).
  • Comprensión de arquitecturas distribuidas, escalabilidad y alta disponibilidad.
  • Conocimiento de autenticación y seguridad (LDAP, Active Directory, OAuth2, Kerberos).
  • Familiaridad con JDBC/ODBC.
  • Nivel alto de inglés.
  • Un entorno dinámico con proyectos innovadores.
  • Modalidad de trabajo flexible y 100% remoto.
  • Oportunidades de formación y certificaciones.
  • Salario competitivo y beneficios adicionales.
  • Equipamiento técnico necesario para el puesto.

Siguientes pasos: Si estás interesado en esta oferta, haz click en “aplicar ahora” para enviar una copia actualizada de tu CV.

Azure Data Engineer – Airplane Solutions

Te apasiona la innovación tecnológica? Airplane Solutions es una compañía que desarrolla proyectos y productos de innovación, modernización tecnológica y arquitectura disruptiva, en entorno Microsoft para brindar las mejores soluciones de software personalizadas, flexibles y potentes para el sector aeronáutico ️.

Buscamos un/a Azure Data Engineer para diseñar, implementar y optimizar soluciones de datos escalables en Microsoft Azure y Microsoft Fabric, liderando desde la ingesta hasta la entrega de insights, incluyendo la gobernanza, seguridad de los datos y la integración de capacidades de IA.

Funciones y políticas: parse_json, mv-expand, estimated_statistics, update policies.

Diseño y orquestación de pipelines de datos, creación, despliegue y monitorización de pipelines en Azure Data Factory y/o Azure Databricks. Estrategias de ingestión batch y streaming (Event Hubs, Azure Stream Analytics).

Modelado y optimización en Azure Synapse Analytics y Azure SQL Data Warehouse. Gestión de grandes volúmenes en Azure Data Lake Storage Gen2 con partición y compresión. Azure Data Explorer (ADX) y Kusto Query Language (KQL). KQL avanzado: consultas exploratorias, agregaciones, series temporales.

Integración: Power BI DirectQuery y dashboards nativos ADX. Monitorización: ajuste de clústeres, escalado y análisis de costes con Azure Monitor.

Microsoft Fabric: Lakehouse & Warehouse: unificación de Data Lake y Synapse en un entorno integrado. Pipelines en Fabric: orquestación con Data Factory en Fabric, notebooks de Spark en Spark Compute. Data Engineering en Fabric: Spark SQL, PySpark y C# en Notebooks; Governance & Security: Control con Purview integrado, políticas de acceso unificadas y encriptación automática. Fabric Workloads: integración de Data Science (ML), Power BI en Fabric, Data Activator para eventos en tiempo real.

Integración y desarrollo. Transformaciones avanzadas con Apache Spark (PySpark/Scala) en Databricks o Fabric Spark Compute. Azure Functions y .NET para microservicios data-driven. IaC con Terraform, Bicep o ARM Templates.

Business Intelligence y visualización: Dashboards en Power BI sobre Fabric or Synapse, DAX avanzado, DirectQuery/Composite Models.

DataOps y MLOps: CI/CD para pipelines, despliegues automáticos con Azure DevOps.

Formación: Titulación en Ingeniería Informática, Telecomunicaciones, Estadística o similar. años en Data Engineering sobre Azure y Fabric. ~ SQL avanzado, Python (pandas, PySpark) y/o Scala. ~ Inglés técnico fluido (B2).

Conocimiento en Modelado de datos y arquitecturas jerarquías, medidas y relaciones en tabular (SSAS) o Azure Analysis Services. Arquitecturas de datos: Lambda: pipelines batch + streaming para baja latencia. Data Vault (opcional): hubs, links y satellites.

Capacidad de resolución de problemas y pensamiento crítico para resolver desafíos de datos complejos. Comunicación efectiva tanto con equipos técnicos como no técnicos para facilitar la toma de decisiones basada en datos. Adaptabilidad y disposición para aprender y trabajar con nuevas tecnologías o actualizaciones del ecosistema Azure.

Gobernanza y DevOps

Contrato indefinido. Salario acorde al mercado y a la experiencia y conocimientos que aportarás. Modalidad de Trabajo híbrida, nos adaptamos a tus necesidades y a las del proyecto, no estamos en la oficina por estar. Formación técnica y de soft-skills para reforzar esas áreas que tu consideras necesarias para alcanzar tu máximo potencial. Certificaciones oficiales de Microsoft. Libertad y flexibilidad horaria. Somos flexibles con tu tiempo, solo tienes que asegurarte de que esté bien con tu equipo. ⏰ Viernes y agosto jornada intensiva de 8:30 a 15:00. Excelente ambiente de trabajo que se basa en la confianza y la corresponsabilidad de todo el equipo. Días de vacaciones retribuidas + 2 flexidays. Eventos en primavera e invierno en donde nos relajamos, disfrutamos y exploramos actividades de muchos estilos. Seguro médico privado a cargo de la empresa. Ayuda para la formación en inglés. Retribución flexible, puedes repartir parte de tu salario en productos o servicios con exención fiscal.

Data Engineer – Matica Partners

Te apasiona el BigData? ¿Quieres formar parte de un equipo con una de las trayectorias más solventes en el mundo del Machine Learning, Analytics y BigData? ¿Te apetece trabajar en una compañía joven, participativa y especializada?

En Matica Partners , trabajamos continuamente para mantenernos a la vanguardia tecnológica, y además somos una empresa People Centric , donde ponemos al trabajador en el centro de todo lo que hacemos. Creemos en una cultura horizontal, sin egos, en un entorno donde se valoran tanto las ideas como las personas.

Buscamos 1 Data Engineer de entre 2,5 años y 4 años habiendo trabajado en todas las etapas del ciclo de vida de proyectos de Data: desde la preparación de datos, transformación y hasta su puesta en producción. Queremos destacar especialmente este último punto: buscamos personas que, al igual que nosotros, no se conformen con las pruebas de concepto, sino que se impliquen en la puesta en producción real de los procesos de Data.

Muy buen nivel de Azure Databricks y PySpark. Familiarizado con componentes de desarrollo: ciclo de vida del software, testing, calidad del código, repositorios/versionado de código (preferiblemente git). Experiencia trabajando con cliente y recopilando requisitos de negocio en buenas habilidades de comunicación. Experiencia en el uso de Azure Data Factory.

También es importante tener un buen nivel de inglés, ya que muchos de nuestros proyectos serán para clientes internacionales.

Contrato indefinido y un salario competitivo, en este caso entre los 30.000 y 40.000 euros brutos/año de entrada, ajustado según tu experiencia. Nuestro plan de carrera incluye 2 revisiones anuales. También tendrás a tu disposición un plan de formación especializado, participación en la propiedad y los beneficios de Grupo Mática: Wetaca gratuito en la oficina dos días a la semana, horario flexible con facilidades para trabajar desde donde quieras, seguro de salud y un divertido welcome kit con portátil (puedes escoger entre varios modelos Mac o Windows), móvil, botella personalizada, auriculares bluetooth y golosinas.

Cuando estés en nuestra oficina, en el centro de Barcelona o Madrid, la fruta, los cafés y los refrescos corren a cuenta de Mática. ¡Ah! Y si eres amante de los animales, te gustará saber esto: ¡nuestras oficinas son Pet-friendly!

Data Engineer – Integra

¿La tecnología para ti es más que datos? En Integra, buscamos transformar la información en decisiones reales que impacten.

Para algunas personas, la tecnología es un reto. Para otras, una oportunidad para transformar la manera en que las empresas trabajan y crecen.

En Integra, no solo compartimos esa visión: la impulsamos cada día. Somos una consultora tecnológica que ofrece soluciones globales a necesidades complejas desde otro punto de vista. Escuchamos para crear progreso, integrando tecnología, experiencia y cercanía.

Estamos buscando un/a Data Engineer con experiencia en Data Visualization para unirse a nuestro equipo. Un perfil con capacidad técnica, mirada analítica y ganas de aportar valor real al negocio a través del dato.

Administrar plataformas como Google Workspace y Microsoft para garantizar una gestión eficiente de los entornos corporativos. Supervisar las operaciones en Microsoft Fabric, asegurando su correcto funcionamiento e integridad de los datos. Diseñar y mantener integraciones vía API (SOAP y REST). Desarrollar y optimizar pipelines de datos con PySpark, Azure Pipelines y Microsoft Fabric Dataflow Gen2. Automatizar transformaciones de datos utilizando Fabric Notebooks y Python. Aplicar modelos de forecasting con Prophet y realizar análisis exploratorios (EDA) en Python. Crear dashboards y reportes interactivos en Power BI adaptados a distintos niveles del negocio. Utilizar librerías de visualización en Python (Matplotlib, Seaborn, Plotly) para comunicar insights de forma clara. Desarrollar análisis avanzados con DAX y consultas SQL optimizadas para datasets complejos.

Experiencia sólida con Python, PySpark, SQL y DAX. Conocimiento práctico en Microsoft Fabric, Azure Pipelines y procesos ETL. Manejo experto de herramientas de visualización como Power BI y librerías en Python. Experiencia en modelos de series temporales (Prophet u otros). Capacidad para traducir datos en decisiones de negocio. C1 en inglés.

Contrato indefinido desde el primer día. Flexibilidad horaria y conciliación real: jornada intensiva los viernes y durante el verano. Plan de carrera individualizado, con formación continua y acompañamiento. Programa de retribución flexible: plan de pensiones, seguro de salud, plataforma de beneficios y más. Un equipo cercano, colaborativo y con ganas de seguir creciendo contigo.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.