¡Activa las notificaciones laborales por email!

Ingeniero / a de Datos

CLIMATE CO2 Technologies

Madrid

Presencial

EUR 40.000 - 60.000

Jornada completa

Hace 20 días

Descripción de la vacante

Una empresa de tecnología logística en Madrid busca un Ingeniero de Datos con experiencia en la optimización de rutas y manejo de big data. El candidato ideal será responsable de diseñar y implementar pipelines de datos y desarrollar algoritmos para mejorar la eficiencia del transporte. Se requiere al menos 3-5 años de experiencia y dominio en herramientas como Python y AWS.

Formación

  • Mínimo 3-5 años de experiencia como Ingeniero de Datos, preferiblemente en el sector logístico.
  • Experiencia en la integración de APIs externas para optimización de procesos.
  • Proyectos previos en el desarrollo de pipelines de datos.

Responsabilidades

  • Diseñar e implementar pipelines de datos para la planificación logística.
  • Desarrollar algoritmos de optimización para routes de largo recorrido.
  • Crear visualizaciones y reportes para stakeholders.

Conocimientos

Dominio en el procesamiento de big data
Experiencia en la integración de APIs
Capacidad para analizar datos complejos
Enfoque proactivo en la resolución de problemas
Habilidad para traducir requerimientos técnicos
Trabajo en equipos multidisciplinarios

Educación

Grado en Ingeniería Informática
Máster o certificación en Big Data

Herramientas

Python
Apache Spark
PostgreSQL
AWS
Scikit-learn
Power BI
Descripción del empleo

Especializado en Planificación Logística y Optimización de Rutas con experiencia en el diseño, desarrollo y optimización de plataformas inteligentes para la planificación logística y el grupaje en rutas de largo recorrido. Especialista en la integración y análisis de datos en tiempo real, incluyendo la API de MSN Weather, para optimizar rutas, reducir costos operativos y mejorar la eficiencia en el transporte. Capaz de construir pipelines de datos robustos, implementar modelos de machine learning y garantizar la calidad y disponibilidad de los datos en entornos de alta demanda.

Funciones
  • Diseñar e implementar pipelines de datos para la recolección, procesamiento y almacenamiento de datos logísticos y meteorológicos.
  • Integrar la API de MSN Weather para incorporar variables climáticas (precipitaciones, temperatura, viento) en los algoritmos de optimización de rutas.
  • Desarrollar algoritmos de optimización para el grupaje en rutas de largo recorrido, maximizando la eficiencia de carga y minimizando los tiempos de entrega.
  • Analizar grandes volúmenes de datos para identificar patrones y tendencias que mejoren la planificación logística.
  • Colaborar con equipos de desarrollo de software y operaciones logísticas para implementar soluciones escalables.
  • Garantizar la calidad, seguridad y disponibilidad de los datos mediante procesos de limpieza, validación y monitoreo.
  • Crear visualizaciones y reportes para stakeholders, proporcionando insights accionables basados en datos.
  • Mantener y optimizar bases de datos y sistemas en la nube para soportar operaciones en tiempo real.
Habilidades
  • Técnicas: Dominio en el procesamiento de big data, modelado de datos, y optimización de algoritmos para logística. Experiencia en la integración de APIs externas (como MSN Weather) y manejo de datos en tiempo real.
  • Analíticas: Capacidad para analizar y cruzar datos complejos, identificando correlaciones entre variables climáticas y logísticas para mejorar la toma de decisiones.
  • Resolución de problemas: Enfoque proactivo para abordar desafíos técnicos y logísticos, proponiendo soluciones innovadoras.
  • Comunicación: Habilidad para traducir requerimientos técnicos en soluciones comprensibles para equipos no técnicos.
  • Trabajo en equipo: Experiencia colaborando con equipos multidisciplinarios, incluyendo ingenieros de software, científicos de datos y gerentes logísticos.
Tecnológicas
  • Lenguajes de Programación: Python, SQL, R (opcional).
  • Herramientas de Big Data: Apache Spark, Hadoop, Kafka.
  • Bases de Datos: PostgreSQL, MongoDB, Snowflake, o similares.
  • Cloud: AWS (S3, Redshift, Lambda), Azure, Google Cloud Platform.
  • APIs: Experiencia con MSN Weather API, REST APIs, y otras APIs de datos en tiempo real.
  • Machine Learning: Scikit-learn, TensorFlow, o PyTorch para modelado predictivo.
  • Visualización de Datos: Power BI, Tableau, o Looker.
  • Control de Versiones: Git.
  • Otros: Conocimiento en herramientas de orquestación como Airflow y contenedores (Docker, Kubernetes).
Formación
  • Grado en Ingeniería Informática, Ciencias de Datos, Ingeniería Industrial, Matemáticas, o campo relacionado.
  • Preferiblemente, máster o certificación en Big Data, Ciencia de Datos, Inteligencia Artificial, o Logística.
  • Certificaciones relevantes (opcional): AWS Certified Big Data, Google Cloud Professional Data Engineer,
  • Microsoft Azure Data Engineer Associate.
Experiencia
  • Mínimo 3-5 años de experiencia como Ingeniero / a de Datos, preferiblemente en el sector logístico o de transporte.
  • Experiencia demostrada en la integración de APIs externas, como MSN Weather, para la optimización de procesos.
  • Proyectos previos en el desarrollo de pipelines de datos y algoritmos de optimización para rutas de largo recorrido.
  • Experiencia en entornos cloud y manejo de grandes volúmenes de datos en tiempo real.
  • Participación en proyectos de grupaje o planificación logística, con resultados medibles en reducción de costos o mejora de eficiencia.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.