¡Activa las notificaciones laborales por email!

Arquitecto de datos

Treelogic

Madrid

Presencial

EUR 45.000 - 75.000

Jornada completa

Hace 14 días

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Treelogic busca un Data Architect / Data Engineer para impulsar proyectos innovadores en ciberseguridad e inteligencia artificial. Buscamos a alguien con sólida experiencia en arquitecturas Big Data y habilidades técnicas avanzadas, que sea proactivo y capaz de trabajar de manera autónoma. Ofrecemos un contrato indefinido a tiempo completo con horario flexible y oportunidades de teletrabajo desde Madrid o Asturias.

Servicios

Horario flexible
Equipo humano altamente cualificado
Buen ambiente de trabajo
Posibilidad de teletrabajo

Formación

  • Experiencia en diseño e implementación de pipelines de ingesta/transf. de datos (ETL/ELT).
  • Fuerte iniciativa, capacidad para liderar, y habilidades de resolución de problemas.
  • Experiencia en automatización y manejo de aplicaciones en contenedores.

Responsabilidades

  • Participar en proyectos de I+D en ciberseguridad, IA y ciencia de datos.
  • Aportar soporte técnico avanzado y coordinar con equipos especializados.
  • Liderar técnicamente soluciones complejas de forma autónoma.

Conocimientos

Conocimiento de arquitecturas Big Data
Ecosistema Hadoop / Spark
NoSQL (MongoDB, ELK)
Streaming (Spark Streaming, Flink)
Inglés intermedio-alto
Metodologías ágiles
MLOps
Proactividad y autonomía
Ciencia de datos y ciberseguridad

Herramientas

Kubernetes
Docker
AWS
GCP
Azure

Descripción del empleo

Queremos reforzar nuestro equipo con un perfil Data Architect / Data Engineer con iniciativa y capacidad para liderar tareas de forma autónoma. Este rol participará tanto en proyectos de I+D de ámbito europeo (H2020 y Horizon Europe) como en proyectos de innovación en el ámbito de la ciberseguridad, IA y ciencia de datos, aportando soporte técnico avanzado y colaborando estrechamente con interlocutores en estas áreas.

Qué conocimientos y experiencia son imprescindibles?

  • Conocimiento de arquitecturas Big Data (ej. Lambda, Data Lake, Lakehouse, etc.) y de su stack tecnológico :
  • Motor de procesado : ecosistema Hadoop / Spark.
  • Orquestadores (no imprescindible pero deseable) : i.e. Airflow, Argo, etc.
  • Bases de datos NoSQL (object stores, column-store, key-value store, search engines, metastores, etc.) : MongoDB, ELK.
  • Capacidad para abordar y liderar técnicamente soluciones complejas de forma autónoma.
  • Conocimiento de arquitecturas en Streaming (i.e. Kappa, Delta Lake, Modelo-Actor, IoT / Event Hub, etc.) y tecnologías asociadas :
  • Motores de procesado, i.e. Spark Streaming, Flink, Kafka Streams.
  • Capacidad para tomar iniciativa y resolver problemas técnicos en entornos dinámicos.
  • Experiencia en el diseño e implementación de pipelines de ingesta / transformación de datos (procesos ETL / ELT).
  • Experiencia con plataformas cloud (principalmente AWS; valorable GCP / Azure / Databricks).
  • Conocimiento de Data Lakes en el cloud.
  • Nivel mínimo de inglés : intermedio-alto.
  • Conocimiento de metodologías ágiles de desarrollo y filosofía DevOps / MLOps (aplicadas al ámbito data).
  • Experiencia en la automatización y manejo de aplicaciones en contenedores : Kubernetes, Docker.
  • Proactividad y autonomía, con habilidad para tomar el control de proyectos, aprender rápidamente y proponer soluciones sin depender de supervisión continua.
  • Conocimientos en ciencia de datos y ciberseguridad, con capacidad para contribuir técnicamente en la implementación de soluciones y coordinar aspectos clave del proyecto con equipos especializados.

Qué otras cosas valoramos?

  • Conocimientos de arquitectura de microservicios.
  • Conocimientos de desarrollo back-end en Java, Python y Scala.
  • Conocimientos de desarrollo front-end en Angular.
  • Conocimiento de administración, monitorización y operación de la infraestructura / servicios del cloud.
  • Conocimiento en tecnologías asociadas al ámbito MLOps : i.e. Pipelines CI / CD, GitLab, Jenkins, Kubeflow, MLFlow.
  • Experiencia en la coordinación técnica de proyectos para asegurar entregas eficientes y la adopción de buenas prácticas de ingeniería de datos.
  • Contrato indefinido a tiempo completo.
  • Posibilidad de incorporación en nuestras oficinas (Madrid / Asturias) o en modo deslocalizado (teletrabajo, full remote).
  • Horario flexible.
  • Equipo humano altamente cualificado.
  • Buen ambiente de trabajo, con un gran equipo profesional y personal.
Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.