Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Especialista de Datos (Full-Stack Data Professional)

Opex Perforadora SA de CV

Villahermosa

Presencial

MXN 600,000 - 800,000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa líder en perforación en Villahermosa busca un profesional full-stack de datos para diseñar y mantener soluciones integrales que soporten la toma de decisiones. Se requiere experiencia en ingeniería de datos, conocimiento de plataformas cloud como AWS o Azure, y habilidades en machine learning. Se ofrece un entorno de trabajo colaborativo y oportunidades de capacitarse en tecnologías de vanguardia.

Formación

  • Mínimo 8 años de experiencia en ingeniería de datos o ciencia de datos.
  • Experiencia en soluciones en cloud y prácticas de MLOps/DevOps.
  • Capacidad para resolver problemas complejos bajo presión.

Responsabilidades

  • Diseñar pipelines de ingestión, transformación y distribución de datos.
  • Implementar plataformas de datos en entornos cloud e híbridos.
  • Desarrollar soluciones back-end para APIs de datos y microservicios.

Conocimientos

Python
SQL
Spark
Kafka
Airflow
Terraform
Kubernetes
Docker
Machine Learning
Prácticas MLOps

Educación

Ingeniería en Computación, Sistemas, Telecomunicaciones

Herramientas

AWS
Azure
GCP
BigQuery
Redshift
Synapse
Descripción del empleo
Objetivo del Puesto

Profesional full-stack de datos responsable de diseñar, desarrollar, implementar y mantener soluciones integrales de datos que soporten la toma de decisiones operativas y estratégicas. Asegura la calidad, disponibilidad y gobernanza de los datos, integra fuentes heterogéneas (on-premise y cloud), desarrolla tuberías ETL/ELT, modelos analíticos y despliega servicios de datos y machine learning en producción, cumpliendo con estándares de seguridad y normativos aplicables.

Responsabilidades Principales
  • Diseñar y construir pipelines de ingestión, transformación y distribución de datos (ETL/ELT) utilizando arquitecturas batch y streaming.
  • Implementar y mantener plataformas de datos en entornos cloud e híbridos (almacenamiento, data lake, data warehouse, catálogos y lakehouse).
  • Desarrollar soluciones back-end para APIs de datos y microservicios que exponen datasets y modelos a consumidores internos y externos.
  • Diseñar, entrenar, validar y poner en producción modelos de machine learning, asegurando su monitoreo, retraining y explicabilidad.
  • Optimizar consultas, modelos dimensionales y estructuras de datos para rendimiento, coste y escalabilidad.
  • Garantizar la calidad, integridad y linaje de los datos mediante pruebas, validaciones y herramientas de data observability.
  • Definir e implementar políticas de seguridad, control de accesos y cumplimiento de normativas (privacidad de datos, encriptación, retención).
  • Colaborar con equipos multidisciplinarios (producción, operaciones, IT, BI, analítica, producto) para entender requerimientos y entregar soluciones operativas.
  • Automatizar despliegues e infraestructura mediante IaC (Infrastructure as Code) y pipelines CI/CD para datos y modelos.
  • Documentar arquitecturas, procesos, APIs, contratos de datos y manuales operativos; participar en revisiones técnicas y auditorías.
  • Capacitar y apoyar a usuarios y equipos en el uso de plataformas de datos, buenas prácticas y gobernanza; promover cultura de datos en la organización.
Perfil Requerido
  • Escolaridad: Ingeniería en Computación, Sistemas, Telecomunicaciones, Matemáticas, Estadística, Ciencia de Datos o afín.
  • Experiencia:
    • Mínimo 8 años de experiencia profesional en ingeniería de datos, ciencia de datos o roles full-stack de datos en entornos productivos.
    • Experiencia comprobable implementando soluciones en cloud (AWS, Azure o GCP) y con prácticas de MLOps/DevOps.
  • Conocimientos Técnicos Clave:
    • Lenguajes: Python, SQL; conocimientos en Java/Scala o Go serán un plus.
    • Herramientas y frameworks: Spark, Kafka, Airflow, dbt, Terraform, Kubernetes, Docker.
    • Plataformas cloud: BigQuery, Redshift, Synapse, S3/Blob Storage, Dataflow/Dataproc o equivalentes.
    • Modelado de datos: Data Warehouse, Data Lake, esquemas dimensionales y lakehouse.
    • Machine Learning: scikit-learn, TensorFlow/PyTorch, evaluación de modelos, deployment y monitoreo.
    • Buenas prácticas de ingeniería: pruebas automatizadas, CI/CD, IaC, observabilidad y logging.
    • Seguridad y gobernanza de datos: IAM, cifrado, políticas de retención, catalogación y linaje.
  • Competencias:
    • Capacidad para resolver problemas complejos y tomar decisiones bajo presión.
    • Comunicación efectiva y trabajo colaborativo con equipos técnicos y de negocio.
    • Orientación a resultados, organización y atención al detalle.
    • Proactividad en mejora continua y adopción de nuevas tecnologías.
Condiciones del Puesto
  • Posición presencial de acuerdo necesidades de proyectos.
  • Disposición para participar en guardias o turnos fuera de horario en caso de incidentes críticos en producción.

Únete a una organización comprometida con la excelencia técnica y la seguridad de la información. Si tienes experiencia sólida en ingeniería y operaciones de datos y te interesa impulsar la transformación digital mediante soluciones escalables y gobernadas, te invitamos a postular.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.