Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Data & Analytics Engineer Semi Sr

axity

Estado de México

Presencial

MXN 200,000 - 400,000

Jornada completa

Ayer
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa de tecnología busca un profesional con experiencia en modelos de ML para estructurar y manejar configuraciones de código. Se requieren habilidades avanzadas en Python y SQL, así como conocimientos intermedios en GCP y MLOps. El candidato deberá contribuir en la implementación de pipelines y asegurar la escalabilidad de los procesos. Esta posición es ideal para quienes buscan impactar en la producción y operación de modelos en un entorno de nube avanzado.

Formación

  • Experiencia trabajando con modelos desarrollados en Python y notebooks.
  • Conocimiento en preparación de modelos para producción.
  • Experiencia en sistemas de GCP y herramientas para AI.

Responsabilidades

  • Estructura de código y notebooks hacia código productivo.
  • Manejo de configuraciones y parámetros del modelo.
  • Versionado de dependencias y artefactos.

Conocimientos

Python programming
SQL
MLOps

Herramientas

Jupyter notebooks
GCP (Vertex AI, BigQuery)
CI/CD tools
Descripción del empleo
Responsabilidades
  • Estructura de código y notebooks hacia código productivo.
  • Manejo de configuraciones y parámetros del modelo.
  • Versionado de dependencias, modelos y artefactos.
  • Apoyar en la preparación de entornos de ejecución (Docker, requirements, configuraciones).
  • La adaptación de modelos para servicios de GCP (ej. Vertex AI, Cloud Run).
  • Generar documentación clara y reutilizable sobre ejecución de modelos y pipelines.
  • Dependencias y configuraciones relevantes.
  • Procedimientos básicos de despliegue y actualización.
  • Contribuir a que los modelos sean más fáciles de mantener y operar a futuro.
  • Proponer mejoras técnicas basadas en experiencia previa.
  • Diseñar e implementar pipelines de ML adaptados al ecosistema de GCP para asegurar la portabilidad y eficiencia de los modelos.
  • Asegurar la escalabilidad de los procesos para diferentes volúmenes de datos o solicitudes.
Requisitos
  • Experiencia trabajando con modelos desarrollados en Python y notebooks (Jupyter).
  • Conocimiento práctico en preparación de modelos para producción y buenas prácticas de reproducibilidad y versionamiento.
  • Avanzado:
    • Programación en Python & SQL.
    • MLOps (Git).
  • Intermedio:
    • Algoritmos de aprendizaje automático.
    • Plataformas de nube como GCP y sus herramientas para AI (Vertex AI, BigQuery, Airflow, Cloud Function/Run, etc).
    • Gobierno de Datos y arquitecturas de Data Lake/DWH.
    • Experiencia en herramientas de CI/CD Pipelines.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.