¡Activa las notificaciones laborales por email!

Data Analyst Valladolid MF

Akkodis

Valladolid

Presencial

EUR 35.000 - 55.000

Jornada completa

Hace 30+ días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un Data Analyst en Valladolid para trabajar con un importante cliente del sector automotriz. En esta emocionante posición, serás parte de un equipo que utiliza terabytes de datos para potenciar modelos de aprendizaje automático, como la segmentación de clientes y la detección de averías de vehículos. Tu papel incluirá la formulación de MVP, la calidad de los datos en el Datalake y la optimización de recursos en la nube. Si tienes pasión por los datos y experiencia en herramientas como Spark y GCP, esta es una oportunidad perfecta para ti.

Formación

  • Experiencia en desarrollo con Spark, Scala y Python sobre grandes volúmenes de datos.
  • Proponer estándares de arquitectura y desarrollo en proyectos de datos.

Responsabilidades

  • Participar en el lanzamiento de productos y API orientados a datos.
  • Contribuir al valor comercial de productos basados en Datalake mediante procesamiento de datos.

Conocimientos

Spark
Scala
Python
SQL
ETL
Agile methodologies
Data validation
Data transformation
Data analysis
Cloud services (GCP)

Herramientas

Airflow
GCP

Descripción del empleo

Desde AKKODIS seleccionamos para nuestro equipo de Valladolid un/a Data Analyst para trabajar con un importante cliente del sector Automoción.

Colaborarás en el día a día con equipos de negocio, así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y en tiempo real), procesamiento de tiempo y llamadas a APIs, para potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).

Cuáles serán tus funciones

  • Participar en las fases de formulación MVP y lanzamiento de productos, servicios y API orientados a datos;
  • Argumentar las elecciones arquitectónicas de los proyectos y la plataforma Datalake en GCP;
  • Contribuir al valor comercial de los productos orientados a datos basados en Datalake mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS;
  • Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos en la nube;
  • Proponer estándares de arquitectura y desarrollo.

Ser proactivo, innovador y solidario.

Experiencia en desarrollo con Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos.

Apetito por los datos: validación, transformación, análisis y valorización.

Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente.

Práctica de metodologías ágiles (Scrum y/o Kanban).

Haber utilizado servicios en la nube, preferiblemente GCP.

Capacidad para comunicarse en inglés técnico, oral y escrito.

Ubicación: Valladolid.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.