
¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una consultora en crecimiento busca un Senior Data Engineer en Barcelona. El candidato ideal tendrá más de 5 años de experiencia y será responsable de implementar y optimizar entornos de Starburst y Data Lakehouse, integrando múltiples fuentes de datos. Se requiere dominio en PySpark y un nivel de inglés avanzado para colaborar con equipos internacionales. Ofrecemos una modalidad de trabajo híbrida y un entorno dinámico con oportunidades de formación.
Desde estamos trabajando una posición de Senior Data Engineer para una consultora en pleno crecimiento, estarás asignado a un cliente del sector Gran Consumo.
Beneficios:
Funciones Principales:
08035 Barcelona, Catalonia WeHunt España
Sobre el perfil:
Buscamos un Senior Data Engineer con especialización en Starburst (Trino) y Dell Data Lakehouse para unirse a nuestro equipo de IA y Datos.
Serás responsable de desplegar, mantener y optimizar las instalaciones de Starburst y Dell Data Lakehouse, permitiendo que nuestros clientes accedan sin problemas a sus datos a través de múltiples plataformas.
Funciones:
Siguientes pasos: Si estás interesado en esta oferta, haz click en “aplicar ahora” para enviar una copia actualizada de tu CV.
Te apasiona la innovación tecnológica? Airplane Solutions es una compañía que desarrolla proyectos y productos de innovación, modernización tecnológica y arquitectura disruptiva, en entorno Microsoft para brindar las mejores soluciones de software personalizadas, flexibles y potentes para el sector aeronáutico ️.
Buscamos un/a Azure Data Engineer para diseñar, implementar y optimizar soluciones de datos escalables en Microsoft Azure y Microsoft Fabric, liderando desde la ingesta hasta la entrega de insights, incluyendo la gobernanza, seguridad de los datos y la integración de capacidades de IA.
Funciones y políticas: parse_json, mv-expand, estimated_statistics, update policies.
Diseño y orquestación de pipelines de datos, creación, despliegue y monitorización de pipelines en Azure Data Factory y/o Azure Databricks. Estrategias de ingestión batch y streaming (Event Hubs, Azure Stream Analytics).
Modelado y optimización en Azure Synapse Analytics y Azure SQL Data Warehouse. Gestión de grandes volúmenes en Azure Data Lake Storage Gen2 con partición y compresión. Azure Data Explorer (ADX) y Kusto Query Language (KQL). KQL avanzado: consultas exploratorias, agregaciones, series temporales.
Integración: Power BI DirectQuery y dashboards nativos ADX. Monitorización: ajuste de clústeres, escalado y análisis de costes con Azure Monitor.
Microsoft Fabric: Lakehouse & Warehouse: unificación de Data Lake y Synapse en un entorno integrado. Pipelines en Fabric: orquestación con Data Factory en Fabric, notebooks de Spark en Spark Compute. Data Engineering en Fabric: Spark SQL, PySpark y C# en Notebooks; Governance & Security: Control con Purview integrado, políticas de acceso unificadas y encriptación automática. Fabric Workloads: integración de Data Science (ML), Power BI en Fabric, Data Activator para eventos en tiempo real.
Integración y desarrollo. Transformaciones avanzadas con Apache Spark (PySpark/Scala) en Databricks o Fabric Spark Compute. Azure Functions y .NET para microservicios data-driven. IaC con Terraform, Bicep o ARM Templates.
Business Intelligence y visualización: Dashboards en Power BI sobre Fabric or Synapse, DAX avanzado, DirectQuery/Composite Models.
DataOps y MLOps: CI/CD para pipelines, despliegues automáticos con Azure DevOps.
Formación: Titulación en Ingeniería Informática, Telecomunicaciones, Estadística o similar. años en Data Engineering sobre Azure y Fabric. ~ SQL avanzado, Python (pandas, PySpark) y/o Scala. ~ Inglés técnico fluido (B2).
Conocimiento en Modelado de datos y arquitecturas jerarquías, medidas y relaciones en tabular (SSAS) o Azure Analysis Services. Arquitecturas de datos: Lambda: pipelines batch + streaming para baja latencia. Data Vault (opcional): hubs, links y satellites.
Capacidad de resolución de problemas y pensamiento crítico para resolver desafíos de datos complejos. Comunicación efectiva tanto con equipos técnicos como no técnicos para facilitar la toma de decisiones basada en datos. Adaptabilidad y disposición para aprender y trabajar con nuevas tecnologías o actualizaciones del ecosistema Azure.
Gobernanza y DevOps
Contrato indefinido. Salario acorde al mercado y a la experiencia y conocimientos que aportarás. Modalidad de Trabajo híbrida, nos adaptamos a tus necesidades y a las del proyecto, no estamos en la oficina por estar. Formación técnica y de soft-skills para reforzar esas áreas que tu consideras necesarias para alcanzar tu máximo potencial. Certificaciones oficiales de Microsoft. Libertad y flexibilidad horaria. Somos flexibles con tu tiempo, solo tienes que asegurarte de que esté bien con tu equipo. ⏰ Viernes y agosto jornada intensiva de 8:30 a 15:00. Excelente ambiente de trabajo que se basa en la confianza y la corresponsabilidad de todo el equipo. Días de vacaciones retribuidas + 2 flexidays. Eventos en primavera e invierno en donde nos relajamos, disfrutamos y exploramos actividades de muchos estilos. Seguro médico privado a cargo de la empresa. Ayuda para la formación en inglés. Retribución flexible, puedes repartir parte de tu salario en productos o servicios con exención fiscal.
Te apasiona el BigData? ¿Quieres formar parte de un equipo con una de las trayectorias más solventes en el mundo del Machine Learning, Analytics y BigData? ¿Te apetece trabajar en una compañía joven, participativa y especializada?
En Matica Partners , trabajamos continuamente para mantenernos a la vanguardia tecnológica, y además somos una empresa People Centric , donde ponemos al trabajador en el centro de todo lo que hacemos. Creemos en una cultura horizontal, sin egos, en un entorno donde se valoran tanto las ideas como las personas.
Buscamos 1 Data Engineer de entre 2,5 años y 4 años habiendo trabajado en todas las etapas del ciclo de vida de proyectos de Data: desde la preparación de datos, transformación y hasta su puesta en producción. Queremos destacar especialmente este último punto: buscamos personas que, al igual que nosotros, no se conformen con las pruebas de concepto, sino que se impliquen en la puesta en producción real de los procesos de Data.
Muy buen nivel de Azure Databricks y PySpark. Familiarizado con componentes de desarrollo: ciclo de vida del software, testing, calidad del código, repositorios/versionado de código (preferiblemente git). Experiencia trabajando con cliente y recopilando requisitos de negocio en buenas habilidades de comunicación. Experiencia en el uso de Azure Data Factory.
También es importante tener un buen nivel de inglés, ya que muchos de nuestros proyectos serán para clientes internacionales.
Contrato indefinido y un salario competitivo, en este caso entre los 30.000 y 40.000 euros brutos/año de entrada, ajustado según tu experiencia. Nuestro plan de carrera incluye 2 revisiones anuales. También tendrás a tu disposición un plan de formación especializado, participación en la propiedad y los beneficios de Grupo Mática: Wetaca gratuito en la oficina dos días a la semana, horario flexible con facilidades para trabajar desde donde quieras, seguro de salud y un divertido welcome kit con portátil (puedes escoger entre varios modelos Mac o Windows), móvil, botella personalizada, auriculares bluetooth y golosinas.
Cuando estés en nuestra oficina, en el centro de Barcelona o Madrid, la fruta, los cafés y los refrescos corren a cuenta de Mática. ¡Ah! Y si eres amante de los animales, te gustará saber esto: ¡nuestras oficinas son Pet-friendly!
¿La tecnología para ti es más que datos? En Integra, buscamos transformar la información en decisiones reales que impacten.
Para algunas personas, la tecnología es un reto. Para otras, una oportunidad para transformar la manera en que las empresas trabajan y crecen.
En Integra, no solo compartimos esa visión: la impulsamos cada día. Somos una consultora tecnológica que ofrece soluciones globales a necesidades complejas desde otro punto de vista. Escuchamos para crear progreso, integrando tecnología, experiencia y cercanía.
Estamos buscando un/a Data Engineer con experiencia en Data Visualization para unirse a nuestro equipo. Un perfil con capacidad técnica, mirada analítica y ganas de aportar valor real al negocio a través del dato.
Administrar plataformas como Google Workspace y Microsoft para garantizar una gestión eficiente de los entornos corporativos. Supervisar las operaciones en Microsoft Fabric, asegurando su correcto funcionamiento e integridad de los datos. Diseñar y mantener integraciones vía API (SOAP y REST). Desarrollar y optimizar pipelines de datos con PySpark, Azure Pipelines y Microsoft Fabric Dataflow Gen2. Automatizar transformaciones de datos utilizando Fabric Notebooks y Python. Aplicar modelos de forecasting con Prophet y realizar análisis exploratorios (EDA) en Python. Crear dashboards y reportes interactivos en Power BI adaptados a distintos niveles del negocio. Utilizar librerías de visualización en Python (Matplotlib, Seaborn, Plotly) para comunicar insights de forma clara. Desarrollar análisis avanzados con DAX y consultas SQL optimizadas para datasets complejos.
Experiencia sólida con Python, PySpark, SQL y DAX. Conocimiento práctico en Microsoft Fabric, Azure Pipelines y procesos ETL. Manejo experto de herramientas de visualización como Power BI y librerías en Python. Experiencia en modelos de series temporales (Prophet u otros). Capacidad para traducir datos en decisiones de negocio. C1 en inglés.
Contrato indefinido desde el primer día. Flexibilidad horaria y conciliación real: jornada intensiva los viernes y durante el verano. Plan de carrera individualizado, con formación continua y acompañamiento. Programa de retribución flexible: plan de pensiones, seguro de salud, plataforma de beneficios y más. Un equipo cercano, colaborativo y con ganas de seguir creciendo contigo.