¡Activa las notificaciones laborales por email!

Arquitecto De Datos

buscojobs España

Alicante

A distancia

EUR 40.000 - 65.000

Jornada completa

Hace 3 días
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Una empresa innovadora busca un Data Architect / Data Engineer para unirse a su equipo. Este rol incluirá la participación en proyectos de I+D a nivel europeo, aportando soporte técnico en áreas de ciberseguridad, IA y ciencia de datos. Se requieren conocimientos sólidos en arquitecturas Big Data y cloud, así como habilidades para trabajar de manera proactiva en un entorno dinámico. El candidato ideal tiene un título relevante, iniciativa y experiencia en el diseño de soluciones complejas.

Servicios

Horario flexible
Buen ambiente de trabajo
Equipo humano cualificado

Formación

  • Conocimiento en arquitecturas Big Data y cloud (AWS, GCP, Azure).
  • Experiencia en la implementación de soluciones complejas y manejo de datos.
  • Nivel de inglés intermedio-alto.

Responsabilidades

  • Participar en proyectos de I+D y ciberseguridad.
  • Liderar tareas técnicas de forma autónoma.
  • Diseñar e implementar pipelines de datos.

Conocimientos

Iniciativa
Liderazgo técnico
Resolución de problemas
Conocimiento de Big Data
Arquitecturas en Streaming
Experiencia en ETL/ELT
Metodologías ágiles
Ciberseguridad
Proactividad

Educación

Título universitario en informática, ingeniería de datos o similar

Herramientas

Hadoop
Spark
AWS
Docker
Kubernetes
Kafka

Descripción del empleo

Queremos reforzar nuestro equipo con un perfil Data Architect / Data Engineer con iniciativa y capacidad para liderar tareas de forma autónoma. Este rol participará tanto en proyectos de I+D de ámbito europeo (H2020 y Horizon Europe) como en proyectos de innovación en el ámbito de la ciberseguridad, IA y ciencia de datos, aportando soporte técnico avanzado y colaborando estrechamente con interlocutores en estas áreas.

Qué conocimientos y experiencia son imprescindibles?

Conocimiento de arquitecturas Big Data (ej. Lambda, Data Lake, Lakehouse, etc.) y de su stack tecnológico : Motor de procesado : ecosistema Hadoop / Spark. Orquestadores (no imprescindible pero deseable) : i.e. Airflow, Argo, etc. Bases de datos NoSQL (object stores, column-store, key-value store, search engines, metastores, etc.) : MongoDB, ELK. Capacidad para abordar y liderar técnicamente soluciones complejas de forma autónoma. Conocimiento de arquitecturas en Streaming (i.e. Kappa, Delta Lake, Modelo-Actor, IoT / Event Hub, etc.) y tecnologías asociadas : Colas, i.e. Kafka. Motores de procesado, i.e. Spark Streaming, Flink, Kafka Streams. Ecosistemas IoT, i.e. NiFi, AWS IoT. Capacidad para tomar iniciativa y resolver problemas técnicos en entornos dinámicos. Experiencia en el diseño e implementación de pipelines de ingesta / transformación de datos (procesos ETL / ELT). Experiencia con plataformas cloud (principalmente AWS; valorable GCP / Azure / Databricks). Conocimiento de Data Lakes en el cloud. Nivel mínimo de inglés : intermedio-alto. Conocimiento de metodologías ágiles de desarrollo y filosofía DevOps / MLOps (aplicadas al ámbito data). Experiencia en la automatización y manejo de aplicaciones en contenedores : Kubernetes, Docker. Proactividad y autonomía, con habilidad para tomar el control de proyectos, aprender rápidamente y proponer soluciones sin depender de supervisión continua. Conocimientos en ciencia de datos y ciberseguridad, con capacidad para contribuir técnicamente en la implementación de soluciones y coordinar aspectos clave del proyecto con equipos especializados.

Qué otras cosas valoramos?

Conocimientos de arquitectura de microservicios. Conocimientos de desarrollo back-end en Java, Python y Scala. Conocimientos de desarrollo front-end en Angular. Conocimiento de administración, monitorización y operación de la infraestructura / servicios del cloud. Conocimiento en tecnologías asociadas al ámbito MLOps : i.e. Pipelines CI / CD, GitLab, Jenkins, Kubeflow, MLFlow. Experiencia en la coordinación técnica de proyectos para asegurar entregas eficientes y la adopción de buenas prácticas de ingeniería de datos.

Contrato indefinido a tiempo completo. Posibilidad de incorporación en nuestras oficinas (Madrid / Asturias) o en modo deslocalizado (teletrabajo, full remote). Horario flexible. Equipo humano altamente cualificado. Buen ambiente de trabajo, con un gran equipo profesional y personal.

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.