¡Activa las notificaciones laborales por email!

Data Engineer (Presencial)

beon finance

Comunidad Valenciana

Presencial

EUR 30.000 - 60.000

Jornada completa

Hace 30+ días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa bancaria líder en España busca un Data Engineer para unirse a su equipo dinámico. En este rol, serás responsable de la preparación de datos y su integración en el área de Data Analytics, colaborando estrechamente con el equipo de Data Science. Trabajarás con tecnologías de Big Data como PySpark y Kafka, implementando procesos ETL desde un Data Warehouse a un Datalake. Si eres una persona colaborativa y apasionada por los datos, esta es tu oportunidad para desarrollarte en un entorno ágil y participar en proyectos de gran envergadura.

Formación

  • Experiencia de al menos 2 años en un rol similar.
  • Experiencia en la integración de datos de múltiples fuentes.

Responsabilidades

  • Preparar datos para el área de Data Scientist.
  • Implementar procesos ETL desde un Data Warehouse a Datalake.
  • Supervisar el rendimiento y asesorar sobre cambios de infraestructura.

Conocimientos

Webscrapping
PySpark
ETL Processes
Data Integration
Kafka
Big Data Frameworks
Agile Methodologies

Educación

Bachelor's Degree in Computer Science or related field

Herramientas

Oracle Data Warehouse
HDFS
Hive
HBase
KafkaConnect
kSQL
Nifi
Storm
Flume

Descripción del empleo

Desde beonit trabajamos para una de las empresas bancarias referentes en España que se dedica al diseño, desarrollo y gestión de soluciones y servicios IT, tanto para las entidades financieras de su grupo como de otros clientes.

Buscamos un Data Engineer para la

  • Preparación de datos trabajando desde el Área de Data Analytics y en colaboración con Big Data.
  • Una persona amable y responsable que se muestre colaborativa con su equipo, garantizando la consecución de los objetivos sin perder el foco en la calidad.

Cuál será tu misión?

La persona que se incorpore será la encargada de la preparación de datos para poder transmitirlos al Área de Data Scientist o al departamento que lo necesite.

Las funciones principales serán :

  • Webscrapping con PySpark.
  • Realización del proyecto que se le asigne en cada momento.
  • Integrar las herramientas y framework de Big Data necesarios.
  • Buscar herramientas y frameworks adecuados para las futuras necesidades.
  • Implementación de procesos ETL desde un Data Warehouse Oracle y logs en XML y JSON a Datalake en HDFS, Hive y HBase.
  • Supervisar el rendimiento y asesorar sobre los cambios de infraestructura necesarios.
  • Experiencia laboral previa de al menos 2 años en un rol similar.
  • Experiencia con la integración de datos de múltiples fuentes de datos.
  • Experiencia con sistemas de mensajería Kafka.
  • Experiencia en la construcción de sistemas de procesamiento de flujo, utilizando soluciones como Spark-Streaming, KafkaConnect, kSQL, Nifi, Storm o Flume.

Desarrollarás tu carrera profesional junto a un equipo joven y dinámico en un entorno agile, participando en un proyecto estable de gran envergadura y transversal.

Si crees que eres la persona adecuada, no dejes pasar esta oportunidad.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.