¡Activa las notificaciones laborales por email!

Arquitecto de datos

Treelogic

Tarragona

Híbrido

EUR 40.000 - 70.000

Jornada completa

Hace 5 días
Sé de los primeros/as/es en solicitar esta vacante

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa en expansión busca un Data Architect o Data Engineer para reforzar su equipo. Este rol incluye liderar proyectos de innovación en ciberseguridad y ciencia de datos, apoyando tareas complejas y colaborando con expertos en el área. Se valoran habilidades en arquitecturas Big Data, experiencia en cloud y conocimientos de metodologías ágiles. Ofrecemos contrato indefinido y posibilidades de teletrabajo.

Servicios

Horario flexible
Buen ambiente de trabajo
Equipo humano altamente cualificado

Formación

  • Experiencia técnica en arquitecturas Big Data y cloud.
  • Nivel mínimo de inglés: intermedio-alto.
  • Capacidad para tomar iniciativa y resolver problemas técnicos.

Responsabilidades

  • Liderar tareas de forma autónoma en proyectos de I+D.
  • Colaborar en la implementación de soluciones de ciberseguridad y ciencia de datos.
  • Diseñar e implementar pipelines de ingesta/transformation de datos.

Conocimientos

Conocimiento de arquitecturas Big Data
Motor de procesado: Hadoop / Spark
Capacidad para diseñar soluciones complejas
Experiencia en Pipelines ETL / ELT
Conocimiento en ciencia de datos
Metodologías ágiles
Experiencia con cloud (AWS, GCP, Azure)

Herramientas

Kubernetes
Docker
GitLab
Jenkins

Descripción del empleo

Queremos reforzar nuestro equipo con un perfil Data Architect / Data Engineer con iniciativa y capacidad para liderar tareas de forma autónoma. Este rol participará tanto en proyectos de I+D de ámbito europeo (H2020 y Horizon Europe) como en proyectos de innovación en el ámbito de la ciberseguridad, IA y ciencia de datos, aportando soporte técnico avanzado y colaborando estrechamente con interlocutores en estas áreas.

Qué conocimientos y experiencia son imprescindibles?

  • Conocimiento de arquitecturas Big Data (ej. Lambda, Data Lake, Lakehouse, etc.) y de su stack tecnológico :
  • Motor de procesado : ecosistema Hadoop / Spark.
  • Orquestadores (no imprescindible pero deseable) : i.e. Airflow, Argo, etc.
  • Bases de datos NoSQL (object stores, column-store, key-value store, search engines, metastores, etc.) : MongoDB, ELK.
  • Capacidad para abordar y liderar técnicamente soluciones complejas de forma autónoma.
  • Conocimiento de arquitecturas en Streaming (i.e. Kappa, Delta Lake, Modelo-Actor, IoT / Event Hub, etc.) y tecnologías asociadas :
  • Motores de procesado, i.e. Spark Streaming, Flink, Kafka Streams.
  • Capacidad para tomar iniciativa y resolver problemas técnicos en entornos dinámicos.
  • Experiencia en el diseño e implementación de pipelines de ingesta / transformación de datos (procesos ETL / ELT).
  • Experiencia con plataformas cloud (principalmente AWS; valorable GCP / Azure / Databricks).
  • Conocimiento de Data Lakes en el cloud.
  • Nivel mínimo de inglés : intermedio-alto.
  • Conocimiento de metodologías ágiles de desarrollo y filosofía DevOps / MLOps (aplicadas al ámbito data).
  • Experiencia en la automatización y manejo de aplicaciones en contenedores : Kubernetes, Docker.
  • Proactividad y autonomía, con habilidad para tomar el control de proyectos, aprender rápidamente y proponer soluciones sin depender de supervisión continua.
  • Conocimientos en ciencia de datos y ciberseguridad, con capacidad para contribuir técnicamente en la implementación de soluciones y coordinar aspectos clave del proyecto con equipos especializados.

Qué otras cosas valoramos?

  • Conocimientos de arquitectura de microservicios.
  • Conocimientos de desarrollo back-end en Java, Python y Scala.
  • Conocimientos de desarrollo front-end en Angular.
  • Conocimiento de administración, monitorización y operación de la infraestructura / servicios del cloud.
  • Conocimiento en tecnologías asociadas al ámbito MLOps : i.e. Pipelines CI / CD, GitLab, Jenkins, Kubeflow, MLFlow.
  • Experiencia en la coordinación técnica de proyectos para asegurar entregas eficientes y la adopción de buenas prácticas de ingeniería de datos.
  • Contrato indefinido a tiempo completo.
  • Posibilidad de incorporación en nuestras oficinas (Madrid / Asturias) o en modo deslocalizado (teletrabajo, full remote).
  • Horario flexible.
  • Equipo humano altamente cualificado.
  • Buen ambiente de trabajo, con un gran equipo profesional y personal.
Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.