¡Activa las notificaciones laborales por email!

Data Engineer BigQuery

Apiux Tech

Torrejón de Ardoz

Presencial

EUR 40.000 - 80.000

Jornada completa

Hace 29 días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un Data Engineer con experiencia en ETL y BigQuery para un proyecto emocionante de creación de un Data Warehouse. En este rol, tendrás la oportunidad de trabajar en un entorno dinámico y colaborativo, donde podrás aplicar tus conocimientos en Python y SQL para optimizar procesos y asegurar la calidad de los datos. Además, disfrutarás de beneficios atractivos, como trabajo 100% remoto, formación continua y un ambiente ágil que fomenta la innovación. Si estás listo para hacer una diferencia en el mundo de los datos, esta es tu oportunidad.

Servicios

Trabajo 100% Remoto
23 días de vacaciones hábiles
Apiux Academy: Formación y entrenamientos técnicos
Día de cumpleaños libre
Bonos por nacimiento, matrimonio y referidos
Happy Points: Días libres canjeables
Proyectos de larga duración
Y-Share: Participación en la compañía

Formación

  • Más de 5 años de experiencia en desarrollo de ETLs y gestión de Data Warehouses.
  • Conocimientos avanzados en BigQuery y optimización de consultas SQL.

Responsabilidades

  • Diseñar y optimizar procesos ETL para la integración de datos.
  • Crear y gestionar un Data Warehouse en BigQuery para análisis avanzado.

Conocimientos

ETL Development
Data Warehouse Management
BigQuery
SQL
Python
Data Quality Analysis
Data Modeling
Agile Methodologies

Educación

Technical or Engineering Degree

Herramientas

Google Cloud Platform (GCP)
Looker
PowerBI
Tableau

Descripción del empleo

Aplican únicamente personas que residan en España

Descripción del puesto: Estamos en búsqueda de un Data Engineer con amplia experiencia en el desarrollo de ETLs, para participar en un proyecto de creación de un Data Warehouse orientado a la analítica avanzada y visualización de informes, dashboards y KPIs. El candidato ideal estará inmerso en un entorno dinámico y colaborativo, con oportunidades de innovación y crecimiento profesional.

Responsabilidades:
  • Diseñar, desarrollar y optimizar procesos ETL para la integración y procesamiento de datos.
  • Crear y gestionar un Data Warehouse en BigQuery, utilizando conceptos avanzados como tablas materializadas, particionamiento y clustering.
  • Implementar y mantener flujos de datos en batch y streaming.
  • Asegurar la calidad de los datos mediante análisis exhaustivos y herramientas especializadas.
  • Diseñar esquemas y modelos de datos eficientes para optimizar el almacenamiento y consulta de grandes volúmenes de datos.
  • Escribir consultas SQL avanzadas y optimizarlas para mejorar el rendimiento.
  • Monitorear y resolver problemas relacionados con la infraestructura de datos.
  • Programar y automatizar tareas utilizando Python.
  • Trabajar con herramientas y servicios de Google Cloud Platform (GCP), específicamente en áreas de datos y análisis.
  • Colaborar en la visualización y presentación de datos utilizando herramientas como Looker, PowerBI, Tableau, entre otras.
  • Participar en un entorno de desarrollo ágil, contribuyendo en ceremonias como dailies, planning y retros.
Requisitos:
  • Título técnico o de ingeniería.
  • Más de 5 años de experiencia en el desarrollo de ETLs.
  • Experiencia sólida en la creación y gestión de Data Warehouses, específicamente en BigQuery.
  • Conocimientos avanzados en particionamiento, clustering y funciones definidas por el usuario (UDFs) en BigQuery.
  • Experiencia con el procesamiento de datos tanto en batch como en streaming.
  • Conocimientos en análisis de calidad de datos.
  • Amplia experiencia en modelado de datos y diseño de esquemas.
  • Experto en SQL y optimización de consultas.
  • Experiencia en monitorización y resolución de problemas.
  • Conocimientos avanzados en Python.
  • Familiaridad con el ecosistema de datos y servicios de Google Cloud Platform (GCP).
  • Experiencia en la presentación y visualización de datos utilizando herramientas como Looker, PowerBI o Tableau.
  • Experiencia trabajando bajo metodologías ágiles.
  • Conocimiento de los modelos de datos de SAP en módulos como FI, MM, SD, entre otros.
  • Experiencia en la extracción de datos a través de APIs.
  • Certificaciones en Google Cloud Platform, especialmente en BigQuery.
Beneficios de ser un Yellower:
  • Trabajo 100% Remoto.
  • 23 días de vacaciones hábiles por año laborado.
  • Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo.
  • Día de tu cumpleaños libre.
  • Bonos por nacimiento, matrimonio y referidos.
  • Happy Points: Un sistema de puntos que puedes canjear por días libres.
  • Proyectos de larga duración y en algunos casos internacionales.
  • Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa!

En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio donde continuamente se brindan espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos, y exponer modelos de negocios innovadores enfocados en cubrir siempre con una propuesta de valor, las necesidades de nuestros clientes.

Qué hacemos? Posicionamos el mejor talento, dando un enfoque estratégico y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes con el fin de hacer el match perfecto entre cliente y talento. Velamos además por brindar una candidate experience y Employee experience ejemplar para nuestros futuros yellowers.

Ser un Yellower, significa pertenecer a una familia con principios integrales donde el espíritu ágil, colaborador, innovador y deportivo son el combustible que día tras día le inyectamos a nuestro corazón para cada vez hacer las cosas mejor.

¿Quieres ser un Yellower e impactar el futuro con la Tecnología y tu Talento?

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.