Ingiero de Datos Completamente Desarrollado en la Nube

Sé de los primeros solicitantes.
Solo para miembros registrados
Madrid
EUR 40.000 - 55.000
Sé de los primeros solicitantes.
Hace 6 días
Descripción del empleo

Trabajamos con datos complejos en una plataforma cloud líder

En nuestra empresa, nos centramos en ofrecer servicios de tecnología avanzados y buscamos un / a Datista Cloud Experiente para trabajar en proyectos innovadores de integración y visualización de datos. Esta persona será clave en el diseño, desarrollo y mantenimiento de pipelines de datos escalables utilizando Facturación de Azure y Databricks, así como en la creación de informes interactivos con Power BI para tomar decisiones empresariales informadas.

Requisitos

  • Formación académica: Grado universitario en Ingeniería Informática, Matemáticas o similar. También se valoran titulaciones de FP Grado Superior (DAM / DAW) con sólida experiencia.
  • Experiencia demostrable de al menos 2 - 3 años trabajando con Databricks y PySpark.
  • Conocimientos sólidos en Facturación de Azure y experiencia en la creación de pipelines de integración de datos.
  • Buen manejo de Python, especialmente orientado a procesamiento de datos con PySpark.
  • Experiencia con Power BI: modelado de datos, creación de informes, DAX.
  • Conocimientos avanzados en SQL y en manejo de grandes volúmenes de datos.
  • Capacidad analítica, autonomía y habilidades de comunicación.

Responsabilidades del puesto

  • Análisis e integración de diversas fuentes de datos para facilitar su análisis y uso.
  • Diseño y desarrollo de pipelines de datos escalables en Facturación de Azure.
  • Implementación de procesos ETL / ELT en Databricks utilizando PySpark para procesar grandes volúmenes de datos.
  • Desarrollo de scripts en Python orientados al procesamiento y transformación de datos.
  • Colaboración con equipos de negocio y analítica para entender requerimientos y transformar datos en información útil.
  • Creador de informes interactivos y dashboards en Power BI.
  • Optimización del rendimiento de las soluciones de datos y aseguramiento de su escalabilidad.
  • Documentación de procesos técnicos y participación en revisiones de código y buenas prácticas.
  • Aseguramiento de la calidad, disponibilidad y seguridad de los datos procesados.