Objetivo del Puesto
Profesional full-stack de datos responsable de diseñar, desarrollar, implementar y mantener soluciones integrales de datos que soporten la toma de decisiones operativas y estratégicas. Asegura la calidad, disponibilidad y gobernanza de los datos, integra fuentes heterogéneas (on-premise y cloud), desarrolla tuberías ETL/ELT, modelos analíticos y despliega servicios de datos y machine learning en producción, cumpliendo con estándares de seguridad y normativos aplicables.
Responsabilidades Principales
- Diseñar y construir pipelines de ingestión, transformación y distribución de datos (ETL/ELT) utilizando arquitecturas batch y streaming.
- Implementar y mantener plataformas de datos en entornos cloud e híbridos (almacenamiento, data lake, data warehouse, catálogos y lakehouse).
- Desarrollar soluciones back-end para APIs de datos y microservicios que exponen datasets y modelos a consumidores internos y externos.
- Diseñar, entrenar, validar y poner en producción modelos de machine learning, asegurando su monitoreo, retraining y explicabilidad.
- Optimizar consultas, modelos dimensionales y estructuras de datos para rendimiento, coste y escalabilidad.
- Garantizar la calidad, integridad y linaje de los datos mediante pruebas, validaciones y herramientas de data observability.
- Definir e implementar políticas de seguridad, control de accesos y cumplimiento de normativas (privacidad de datos, encriptación, retención).
- Colaborar con equipos multidisciplinarios (producción, operaciones, IT, BI, analítica, producto) para entender requerimientos y entregar soluciones operativas.
- Automatizar despliegues e infraestructura mediante IaC (Infrastructure as Code) y pipelines CI/CD para datos y modelos.
- Documentar arquitecturas, procesos, APIs, contratos de datos y manuales operativos; participar en revisiones técnicas y auditorías.
- Capacitar y apoyar a usuarios y equipos en el uso de plataformas de datos, buenas prácticas y gobernanza; promover cultura de datos en la organización.
Perfil Requerido
- Escolaridad: Ingeniería en Computación, Sistemas, Telecomunicaciones, Matemáticas, Estadística, Ciencia de Datos o afín.
- Experiencia:
- Mínimo 8 años de experiencia profesional en ingeniería de datos, ciencia de datos o roles full-stack de datos en entornos productivos.
- Experiencia comprobable implementando soluciones en cloud (AWS, Azure o GCP) y con prácticas de MLOps/DevOps.
- Conocimientos Técnicos Clave:
- Lenguajes: Python, SQL; conocimientos en Java/Scala o Go serán un plus.
- Herramientas y frameworks: Spark, Kafka, Airflow, dbt, Terraform, Kubernetes, Docker.
- Plataformas cloud: BigQuery, Redshift, Synapse, S3/Blob Storage, Dataflow/Dataproc o equivalentes.
- Modelado de datos: Data Warehouse, Data Lake, esquemas dimensionales y lakehouse.
- Machine Learning: scikit-learn, TensorFlow/PyTorch, evaluación de modelos, deployment y monitoreo.
- Buenas prácticas de ingeniería: pruebas automatizadas, CI/CD, IaC, observabilidad y logging.
- Seguridad y gobernanza de datos: IAM, cifrado, políticas de retención, catalogación y linaje.
- Competencias:
- Capacidad para resolver problemas complejos y tomar decisiones bajo presión.
- Comunicación efectiva y trabajo colaborativo con equipos técnicos y de negocio.
- Orientación a resultados, organización y atención al detalle.
- Proactividad en mejora continua y adopción de nuevas tecnologías.
Condiciones del Puesto
- Posición presencial de acuerdo necesidades de proyectos.
- Disposición para participar en guardias o turnos fuera de horario en caso de incidentes críticos en producción.
Únete a una organización comprometida con la excelencia técnica y la seguridad de la información. Si tienes experiencia sólida en ingeniería y operaciones de datos y te interesa impulsar la transformación digital mediante soluciones escalables y gobernadas, te invitamos a postular.