¡Activa las notificaciones laborales por email!

Data Engineer Aws

buscojobs España

Huelva

A distancia

EUR 40.000 - 60.000

Jornada completa

Hace 2 días
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Logicalis Spain busca un Data Engineer para unirse a su equipo en proyectos de IA y analítica avanzada. Se ofrece un trabajo 100% remoto, estabilidad laboral a través de un contrato indefinido, y un paquete retributivo competitivo. El candidato ideal tendrá experiencia en Python, AWS y herramientas de procesamiento de datos.

Servicios

Seguro médico
GYMPASS
Planes de retribución flexible
Portal de descuentos especiales para empleados
Planes de formación adaptados a cada perfil

Formación

  • Mínimo 3 años de experiencia en desarrollo y scripting con Python.
  • Dominio en el uso de PySpark y Spark para el procesamiento de datos.
  • Conocimiento avanzado en AWS, incluyendo S3, Redshift y Lambda.

Responsabilidades

  • Diseñar, construir y mantener pipelines de datos escalables en AWS.
  • Colaborar con equipos multifuncionales para asegurar la calidad de los datos.
  • Realizar consultas avanzadas en bases de datos SQL.

Conocimientos

Desarrollo en Python
Procesamiento de datos con PySpark
Orquestación con Apache Airflow
SQL
Gestión de datos en AWS
Colaboración en Git

Herramientas

AWS
Apache Airflow
Spark
Kafka

Descripción del empleo

En Logicalis Spain estamos buscando 1 perfil de Data Engineer para integrarse en nuestro equipo de Data & Analytics donde llevamos a cabo importantes proyectos de Inteligencia artificial y analítica avanzada, estrategia del dato, gobierno, integración y arquitectura con clientes nacionales e internacionales, abarcando todo el ciclo de vida del dato.

  • Diseñar, construir y mantener pipelines de datos escalables y eficientes en AWS.
  • Implementar y optimizar flujos de trabajo de datos utilizando Apache Airflow.
  • Desarrollar y gestionar scripts y aplicaciones de datos en Python y PySpark.
  • Integrar y procesar grandes volúmenes de datos utilizando Spark y / o Kafka y / o Kinesis.
  • Colaborar con equipos multifuncionales para asegurar la calidad y disponibilidad de los datos.
  • Gestionar infraestructuras de datos en la nube utilizando AWS.
  • Realizar consultas y optimizaciones avanzadas en bases de datos SQL.

REQUISITOS TÉCNICOS

  • Mínimo 3 años de experiencia en desarrollo y scripting con Python.
  • Dominio en el uso de PySpark y Spark para el procesamiento de datos.
  • Experiencia con Apache Airflow para la orquestación de flujos de trabajo.
  • Conocimiento avanzado en AWS, incluyendo servicios como S3, Redshift, EMR, y Lambda.
  • Fuerte conocimiento en el uso de SQL para consultas y optimización de bases de datos.
  • Experiencia con Kafka para la ingesta y procesamiento de datos en tiempo real.
  • Conocimiento en Git para control de versiones y colaboración en proyectos.
  • Incorporación inmediata a compañía líder del sector IT con un alto grado de expertise en el área de Data & Analytics.
  • Estabilidad laboral a través de contrato indefinido con amplias oportunidades de desarrollo profesional y crecimiento en la compañía.
  • Modalidad de trabajo 100% remoto desde cualquier punto de España.
  • Paquete retributivo muy competitivo acorde a la valía del candidato.
  • Posibilidad de acogerse a planes de retribución flexible (tarjeta restaurante, tarjeta transporte y tarjeta guardería).
  • Seguro médico y GYMPASS.
  • Planes de formación adaptados a cada perfil (cursos técnicos, certificaciones oficiales, formación de idiomas...).
  • Portal de descuentos especiales para empleados.
  • Buen ambiente de trabajo y entorno muy colaborativo.
Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.