En Apipana, creamos soluciones innovadoras con código de alta calidad, cubriendo todo el ciclo de vida del desarrollo de software (SDLC) trabajando de la mano con nuestros clientes principales dedicados a casino games, betting y soluciones de software en un ambiente internacional.
Actualmente nos encontramos en pleno crecimiento buscando mentes creativas y entusiastas para unirse a nuestro equipo en nuestras oficinas ubicadas en Sevilla o Granada. Si te apasionan los retos tecnológicos y quieres estar a la última, únete al equipo y forma parte de los primeros 50
Misión
Como Data Software Engineer serás responsable junto con tu equipo, del diseño, desarrollo e implementación de una plataforma de datos de última generación que integra data streaming, un data lake y una base de datos analítica de alto rendimiento.
Responsabilidades
- Diseñar y desarrollar pipelines de datos en tiempo real, siguiendo principios SOLID y asegurándote de cumplir con los estándares de calidad establecidos.
- Incorporar nuevos puntos de datos en los modelos ya existentes.
- Implementar transformaciones complejas con el objetivo de enriquecer los pipelines de datos en streaming.
- Colaborar con el equipo, compartiendo y aprendiendo con tus compañeros.
- Optimizar el rendimiento y la eficiencia de los pipelines y las consultas de datos.
- Configurar sistemas de monitoring, alertas y métricas de calidad.
Herramientas y Entornos
Principales herramientas y entornos con los que trabajarás en tu día a día :
POO en Java.Procesamiento de datos en Streaming con Apache Flink y Apache Beam.Bases de datos SQL Operacionales y Analíticas.Messaging (Kafka).Ecosistema Hadoop.Gestión de contenedores con Docker y Kubernetes como orquestador.Herramienta declarativa gitOps, ArgoCD.Requisitos
Se requiere :
Grado en Informática o un campo relacionado, con al menos 3 años de experiencia en data engineering.Experiencia práctica con grandes volúmenes de datos y procesos ETL, trabajando con datos estructurados, semiestructurados y no estructurados.Sólidos conocimientos en diseño y desarrollo de bases de datos, además de modelos de datos multidimensionales.Experiencia en data ingestion utilizando Kafka.Familiaridad con tecnologías de procesamiento de datos en streaming como Flink, Beam o Spark.Conocimientos básicos sobre data lakes (como Hadoop y su ecosistema).Experiencia trabajando con contenedores mediante Docker.Amplios conocimientos de Java y, como plus, experiencia manipulando datos con este lenguaje.Experiencia sólida con bases de datos relacionales y consultas SQL.Capacidad para resolver problemas, habilidades analíticas y disposición para asumir retos técnicos con entusiasmo.Buenas habilidades interpersonales y capacidad para colaborar en equipo.Experiencia trabajando con aplicaciones en contenedores mediante Kubernetes.Conocimientos sobre arquitecturas Data Lakehouse, especialmente el formato de tablas Iceberg.Beneficios
El paquete de beneficios incluye :
30 días laborales de vacaciones.Horario flexible.Sistema híbrido, 3 días en la oficina y 2 desde casa.Seguro médico completo con DKV.Clases gratuitas de inglés dentro de tu jornada laboral.Tickets restaurante.Hasta 25 euros al mes de descuento en cualquier actividad deportiva.Presupuesto para formación.Recomienda a un / a amig / a para unirse al equipo y gana hasta 3000 euros por cada recomendación exitosa que hagas.Si estás listo / a para hacer historia y formar parte de un equipo comprometido con la excelencia, ¡no dudes en enviar tu solicitud!