¡Activa las notificaciones laborales por email!

Senior Data Engineer

The White Team

León

A distancia

EUR 45.000 - 65.000

Jornada completa

Hace 3 días
Sé de los primeros/as/es en solicitar esta vacante

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un ingeniero de datos senior con experiencia en DBT y Snowflake. El candidato ideal desarrollará pipelines de datos, intégrera datos en Snowflake y gestionará infraestructuras en la nube sur AWS. Se permite trabajo remoto al 100% desde España, offrant une opportunité flexible dans un environnement dynamique.

Formación

  • Minimum 5 años de experiencia en ingeniería de datos, con fuerte enfoque en DBT, Snowflake y GitHub.
  • Fluidez en inglés y habilidades de comunicación excepcionales.
  • Fuertes habilidades analíticas y de resolución de problemas, con atención al detalle.

Responsabilidades

  • Diseñar, desarrollar y mantener pipelines de datos utilizando DBT, Apache Airflow y Python.
  • Integrar datos de diversas fuentes en Snowflake, asegurando calidad y consistencia.
  • Colaborar con científicos de datos y ingenieros de ML para asegurar un procesamiento y una integración de datos fluidos.

Conocimientos

DBT
Snowflake
GitHub
Python
Apache Airflow
AWS

Educación

Degree in Computer Science
Degree in Data Engineering

Descripción del empleo

Development and optimization of data infrastructure. The role requires proficiency in DBT, Snowflake, GitHub, and additional experience with Apache Airflow, Python, and AWS. This position demands senior-level expertise, fluency in English, and the ability to work remotely from Spain.

Responsibilities :

  • Data Pipeline Development : Design, develop, and maintain robust data pipelines using DBT, Apache Airflow, and Python.
  • Data Integration : Integrate data from various sources into Snowflake, ensuring data quality and consistency.
  • Collaboration : Work closely with Data Scientists and ML Engineers to ensure seamless data processing and integration.
  • Optimization : Optimize data storage and retrieval processes to enhance performance and scalability.
  • Version Control : Utilize GitHub for version control and collaboration on data engineering projects.
  • Cloud Infrastructure : Manage and optimize AWS cloud infrastructure for data processing and storage.
  • Troubleshooting : Identify and resolve issues related to data pipelines and infrastructure.
  • Documentation : Maintain comprehensive documentation of data processes, pipelines, and infrastructure.

Qualifications :

  • Education : Degree in Computer Science, Data Engineering, or a related field.
  • Experience : Minimum 5 years of experience in data engineering, with a strong focus on DBT, Snowflake, and GitHub.
  • Technical Skills : Proficiency in Python, Apache Airflow, and AWS.
  • Communication : Fluency in English, with excellent communication and collaboration skills.
  • Problem-Solving : Strong analytical and problem-solving skills, with attention to detail.

Must Have :

  • DBT : Experience in developing and maintaining data transformation workflows using DBT.
  • Snowflake : Proficiency in Snowflake for data storage and integration.
  • GitHub : Strong skills in version control and collaboration using GitHub.

100% work from home is allowed (in Spain)

J-18808-Ljbffr

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.