¡Activa las notificaciones laborales por email!

Experto / a en Ciencia de Datos

beBeeCienciaDeDatos

Madrid

Presencial

EUR 40.000 - 55.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa tecnológica en Madrid busca un Experto en Ciencia de Datos para trabajar en proyectos innovadores. El candidato ideal tendrá experiencia en Databricks, Py Spark y Azure Data Factory, así como en la creación de dashboards en Power BI. Se requiere autonomía, habilidades analíticas y capacidad de documentación de procesos técnicos.

Formación

  • Experiencia demostrable de al menos 2 - 3 años trabajando con Databricks y Py Spark.
  • Conocimientos sólidos en Azure Data Factory y experiencia en la creación de pipelines de integración de datos.
  • Buen manejo de Python, especialmente orientado a procesamiento de datos con Py Spark.

Responsabilidades

  • Analizar e integrar diversas fuentes de datos, internas y externas.
  • Diseñar y desarrollar pipelines de datos escalables en Azure Data Factory.
  • Implementar procesos ETL/ELT en Databricks utilizando Py Spark.
  • Desarrollar scripts en Python para procesamiento y transformación de datos.
  • Crear y mantener informes interactivos y dashboards en Power BI.

Conocimientos

Databricks
Py Spark
Azure Data Factory
Python
Power BI
SQL
Análisis de datos

Educación

Grado universitario en Ingeniería Informática, Matemáticas, Estadística, Física o similar

Herramientas

Azure Data Factory
Databricks
Power BI
Descripción del empleo
Descripción del Puesto

En la búsqueda de talento especializado, necesitamos un / a Experto / a en Ciencia de Datos con experiencia en entornos cloud para trabajar en proyectos de integración y visualización de datos. En Amura IT, nos centramos en proporcionar soluciones innovadoras y escalables para nuestros clientes.

Responsabilidades
  • El análisis e integración de diversas fuentes de datos, tanto internas como externas, es fundamental para facilitar su uso y comprensión.
  • Se requiere diseñar y desarrollar pipelines de datos escalables y eficientes en Azure Data Factory para garantizar la precisión y velocidad.
  • La implementación de procesos ETL / ELT en Databricks utilizando Py Spark es crucial para procesar grandes volúmenes de datos.
  • Es necesario desarrollar scripts en Python orientados al procesamiento y transformación de datos para brindar valor agregado.
  • Colaborar con equipos de negocio y analítica para entender los requerimientos y transformar datos en información útil es vital.
  • Crear y mantener informes interactivos y dashboards en Power BI es esencial para tomar decisiones informadas.
  • La optimización del rendimiento de las soluciones de datos y asegurar su escalabilidad es un requisito indispensable.
  • Documentar procesos técnicos y participar en revisiones de código y buenas prácticas es fundamental para garantizar la calidad y seguridad.
  • Garantizar la disponibilidad y seguridad de los datos procesados es nuestra prioridad máxima.
Requisitos de Acceso a la Oferta
  • Formación académica: Grado universitario en Ingeniería Informática, Matemáticas, Estadística, Física o similar.
  • Experiencia demostrable de al menos 2 - 3 años trabajando con Databricks y Py Spark.
  • Conocimientos sólidos en Azure Data Factory y experiencia en la creación de pipelines de integración de datos.
  • Buen manejo de Python, especialmente orientado a procesamiento de datos con Py Spark.
  • Experiencia con Power BI: modelado de datos, creación de dashboards, DAX.
  • Conocimientos avanzados en SQL y en manejo de grandes volúmenes de datos.
  • Conocimiento sólido en plataformas cloud, preferiblemente Microsoft Azure.
  • Capacidad analítica, autonomía y habilidades de comunicación.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.