¡Activa las notificaciones laborales por email!

DevOps / Platform Engineer (orientado a MLOps)

GPU Solutions

Madrid

Híbrido

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa de soluciones tecnológicas busca un DevOps / Platform Engineer para desarrollar infraestructura de IA en entornos híbridos en España. El candidato ideal tendrá entre 2 y 5 años de experiencia, sólida formación en Linux, y habilidades en Docker y Kubernetes. Se ofrece autonomía, un entorno afín a la innovación y oportunidades de crecimiento profesional en proyectos de IA y MLOps.

Servicios

Infraestructura de GPUs puntera
Autonomía en proyectos
Crecimiento hacia arquitectura de plataforma

Formación

  • 2–5 años de experiencia en roles tipo DevOps / SRE.
  • Fuerte experiencia con Linux a nivel administración.
  • Experiencia con orquestadores como Kubernetes.
  • Experiencia con monitorización y logs centralizados.
  • Deseo de aprender sobre inferencia en GPU.

Responsabilidades

  • Diseñar y operar la plataforma de servicios de IA.
  • Desplegar modelos como APIs de inferencia.
  • Colaborar con el equipo de data science en empaquetar modelos.
  • Encargarte de la operación y fiabilidad de la plataforma.
  • Colaborar con el Ingeniero de Redes & Seguridad.

Conocimientos

Experiencia en DevOps / SRE / Platform Engineer
Linux administración
Docker
Kubernetes o similar
Pipelines de CI / CD
Monitorización (Prometheus, Grafana)
Logs centralizados
Python para tooling interno
Conocimientos básicos de redes y seguridad
Experiencia en entornos híbridos
Descripción del empleo

Seguimos desarrollando la

infraestructura soberana de IA para empresas

, con clústeres de GPUs en centros de datos en España, pensada como complemento a las nubes públicas en entornos híbridos y on-prem

Buscamos un / a

DevOps / Platform Engineer

que quiera ser pieza clave de esta plataforma : alguien que disfrute convirtiendo modelos de IA en APIs robustas, escalables y bien monitorizadas, y que tenga ganas de trastear con GPUs de verdad, no solo con CPUs en la nube.

La sede del equipo está en Granada (modelo híbrido / remoto desde España) y el datacenters en varias localizaciones.

Responsabilidades
  • Diseñar y operar la plataforma de servicios de IA
  • Despliegue de modelos como APIs de inferencia (REST / gRPC).
  • Uso de contenedores (Docker) y orquestación (Kubernetes, K3s u otro similar).
  • Trabajar codo con codo con el equipo de data science para:
    • Empaquetar modelos (LLMs, visión, modelos propios) en servicios productivos.
    • Ajustar configuración para aprovechar bien las GPUs (batching, concurrencia, etc.).
  • Encargarte de la operación y fiabilidad de la plataforma:
    • Métricas de latencia, throughput y uso de recursos (GPU / CPU / memoria).
    • Logs centralizados y alertas.
    • Procedimientos de rollback y redeploy de versiones de modelo.
  • Colaborar con el / la Ingeniero / a de Redes & Seguridad para:
    • Exponer endpoints de forma segura (API gateway, autenticación).
    • Separar entornos (desarrollo / pruebas / producción).
Requisitos imprescindibles
  • 2–5 años aprox. de experiencia en roles tipo DevOps / SRE / Platform Engineer / Backend con mucha infra
  • Sólida experiencia con Linux a nivel administración.
  • Docker
  • Algún orquestador (Kubernetes, K3s, Nomad, ECS…).
  • Haber trabajado con servicios en producción
  • Pipelines de CI / CD.
  • Monitorización (Prometheus, Grafana u otras).
  • Logs centralizados (ELK, Loki, etc.).
  • Ganas reales de aprender y profundizar en Inferencia sobre GPU y servidores de modelos (Triton, vLLM, TGI, etc.), aunque todavía no los domines.
  • Se valorará haber desplegado modelos de ML en producción (aunque sea en proyectos pequeños).
  • Experiencia con Python para tooling interno.
  • Conocimientos básicos de redes y seguridad (firewall, VPN, TLS).
  • Experiencia en entornos híbridos (on-prem + cloud).
Qué ofrecemos
  • Trabajar con infraestructura de GPUs puntera en España, en proyectos reales de IA.
  • Mucha autonomía y posibilidad de construir cosas casi desde cero.
  • Crecimiento hacia arquitectura de plataforma.
  • MLOps avanzado si te interesa ese camino.
  • Entorno pequeño y ágil, con impacto directo en decisiones técnicas y de producto.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.