¡Activa las notificaciones laborales por email!

Arquitecto De Datos

Treelogic

Sevilla

A distancia

EUR 45.000 - 60.000

Jornada completa

Hace 3 días
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa líder en tecnología busca un Data Architect/Data Engineer para integrarse en proyectos innovadores en ciberseguridad, IA, y ciencia de datos. Se requiere experiencia en arquitecturas Big Data, Hadoop/Spark, y habilidades en metodologías ágiles. Ofrecemos contrato indefinido a tiempo completo, horario flexible y equipo altamente cualificado en un buen ambiente de trabajo.

Servicios

Horario flexible
Ambiente de trabajo colaborativo
Contratación indefinida

Formación

  • Conocimientos en arquitecturas en Streaming y tecnologías asociadas.
  • Experiencia en automatización y manejo de aplicaciones en contenedores.
  • Proactividad y autonomía en la gestión de proyectos.

Conocimientos

Arquitecturas Big Data
Ecosistema Hadoop / Spark
Airflow / Argo
Bases de datos NoSQL
Diseño e implementación de pipelines
AWS
Inglés intermedio-alto
Metodologías ágiles
Kubernetes
Data Lakes en la nube

Herramientas

Docker
Spark Streaming
Kafka Streams

Descripción del empleo

Queremos reforzar nuestro equipo con un perfil de Data Architect / Data Engineer con iniciativa y capacidad para liderar tareas de forma autónoma. Este rol participará en proyectos de I+D a nivel europeo (H2020 y Horizon Europe) y en proyectos de innovación en ciberseguridad, IA y ciencia de datos, aportando soporte técnico avanzado y colaborando estrechamente con interlocutores en estas áreas.

Requisitos imprescindibles:
  1. Conocimiento de arquitecturas Big Data (ej. Lambda, Data Lake, Lakehouse, etc.) y su stack tecnológico:
  2. Motor de procesado: ecosistema Hadoop / Spark.
  3. Orquestadores (deseable): Airflow, Argo, etc.
  4. Bases de datos NoSQL (object stores, column-store, key-value store, search engines, metastores, etc.): MongoDB, ELK.
  5. Capacidad para abordar y liderar soluciones complejas de forma autónoma.
  6. Conocimiento en arquitecturas en Streaming (Kappa, Delta Lake, Modelo-Actor, IoT / Event Hub, etc.) y tecnologías asociadas: Spark Streaming, Flink, Kafka Streams.
  7. Experiencia en diseño e implementación de pipelines de ingesta / transformación de datos (ETL / ELT).
  8. Experiencia con plataformas cloud (principalmente AWS; valorable GCP / Azure / Databricks).
  9. Conocimiento de Data Lakes en el cloud.
  10. Nivel mínimo de inglés: intermedio-alto.
  11. Conocimiento de metodologías ágiles y filosofía DevOps / MLOps aplicadas al ámbito data.
  12. Experiencia en automatización y manejo de aplicaciones en contenedores: Kubernetes, Docker.
  13. Proactividad y autonomía, con habilidades para gestionar proyectos, aprender rápidamente y proponer soluciones sin supervisión constante.
  14. Conocimientos en ciencia de datos y ciberseguridad, con capacidad para contribuir en la implementación y coordinación técnica de soluciones.
Otros conocimientos valorados:
  • Arquitectura de microservicios.
  • Desarrollo back-end en Java, Python y Scala.
  • Desarrollo front-end en Angular.
  • Administración, monitorización y operación de infraestructura / servicios cloud.
  • Tecnologías MLOps: pipelines CI / CD, GitLab, Jenkins, Kubeflow, MLFlow.
  • Experiencia en coordinación técnica de proyectos y buenas prácticas de ingeniería de datos.
Condiciones laborales:
  • Contrato indefinido a tiempo completo.
  • Posibilidad de incorporación en Madrid o Asturias, o en modo remoto (teletrabajo).
  • Horario flexible.
  • Equipo altamente cualificado y buen ambiente de trabajo.

Ubicación: Barcelona, Catalonia, España

J-18808-Ljbffr

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.