¡Activa las notificaciones laborales por email!
Mejora tus posibilidades de llegar a la entrevista
Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.
Join a dynamic and innovative team as a Data Operations Engineer, where you'll develop and optimize data pipelines and scalable data platforms that drive strategic business decisions. This role emphasizes collaboration and continuous improvement in a fast-paced environment. You'll work with cutting-edge technologies like Python, SQL, and AWS, contributing to impactful projects while enjoying the flexibility of remote or hybrid work options. Embrace a culture that values your input and fosters professional growth in a rapidly evolving industry.
Nuestro equipo valora el trabajo en conjunto, la colaboración cross-funcional y un ambiente dinámico y estimulante. Fomentamos la autonomía y la rapidez en la ejecución para llevar nuestras soluciones a producción.
El/la Data Operations Engineer trabajará en el desarrollo, mantenimiento y optimización de pipelines de datos, soluciones ETL/ELT y plataformas de datos escalables que impulsan decisiones estratégicas de negocio.
Desarrollo (70%)
Desarrollar y mantener pipelines de datos eficientes y escalables utilizando Python, SQL, Snowflake y Snowpark.
Administrar y optimizar bases de datos y data warehouses en entornos cloud.
Diseñar soluciones robustas de ingesta, almacenamiento y procesamiento de datos a gran escala.
Mejorar procesos de ingesta en tiempo real con AWS Lambda, Snowpipe y tecnologías de streaming.
Colaborar con analistas y científicos de datos para construir datasets orientados a negocio.
Explorar e implementar nuevas funcionalidades y soluciones innovadoras (Airflow, AWS Glue, Spark, etc.).
Revisión de código y Mejora continua (15%)
Participar en revisiones de código siguiendo buenas prácticas y estándares de calidad.
Colaborar en la mentoría técnica y el aprendizaje continuo del equipo.
Metodologías Ágiles (10%)
Participar activamente en ceremonias ágiles: sprints, dailys, retrospectivas y reviews.
Mantener una comunicación clara con stakeholders y equipos técnicos.
Soporte y despliegues (5%)
Monitorear y solucionar problemas en bases de datos, pipelines y workflows.
Coordinar despliegues en entornos de staging y producción, minimizando downtime.
Documentar SOPs y guías para el equipo de operaciones técnicas.
+5 años de experiencia en roles similares (Data Engineer / Data Operations).
Experiencia sólida en administración y tuning de bases de datos (Snowflake, PostgreSQL u otras).
Dominio de Python para orquestación, automatización y manipulación de datos.
SQL avanzado y experiencia con queries complejas y modelado de datos.
Experiencia con orquestadores como Apache Airflow.
Conocimiento de procesos ETL/ELT y su optimización.
Familiaridad con entornos cloud (AWS, incluyendo Lambda, S3 y Glue).
Comprensión de mejores prácticas de ingeniería de software y metodologías ágiles.
Capacidad de adaptación a entornos cambiantes y trabajo con SLAs definidos.
Experiencia con Spark y Snowflake avanzado (Snowpark, vistas materializadas, Data Sharing).
Conocimiento del sistema de salud de EE. UU. y regulaciones de privacidad de datos (HIPAA, GDPR).
Experiencia previa en ambientes ticket-based y soporte operativo.
Título universitario en Ciencias de la Computación, Ingeniería o carreras afines.
Ser parte de una empresa en constante crecimiento con oportunidades de aprendizaje continuo.
Participar en proyectos innovadores con tecnologías de vanguardia.
Colaborar en un ambiente donde tu opinión y experiencia serán valoradas.
Trabajar con un equipo diverso y altamente calificado.
Trabajo remoto o híbrido (si estás en Córdoba).
Ajustes salariales periódicos.
Acceso a plataformas de formación como Udemy y clases de inglés.
Cultura centrada en las personas.
Enviá tu CV a: talento@darwoft.com
¿Consultas? Seguime y escribime por LinkedIn: Hernán Vietto