Propósito del Rol: Buscamos un(a) Arquitecto(a) de Datos Senior apasionado(a) por diseñar soluciones escalables y modernas en la nube. Tendrás un rol clave en la evolución hacia una arquitectura lakehouse, habilitando capacidades avanzadas de análisis, machine learning y autoservicio. Serás responsable de liderar la arquitectura técnica de pipelines y gobernanza de datos, además de impulsar una cultura data-driven en toda la organización.
Principales responsabilidades:
- Diseñar y evolucionar arquitecturas lakehouse y pipelines de datos. Implementar ingestas, batch y streaming con baja latencia (Kafka, Flink, Spark, Databricks). Estandarizar esquemas y particionado (Delta, Parquet, Iceberg) optimizados para ML y BI.
- Aplicar enfoque Data as a Product: definición de contratos de datos, SLAs, y datasets en autoservicio (Redshift, Snowflake, Athena). Liderar la creación de dashboards con Power BI, Tableau o Looker y APIs analíticas.
- Asegurar gobernanza, linaje y calidad de datos con herramientas como Collibra, Apache Atlas, DataHub, y validaciones con Great Expectations o Deequ.
- Velar por el cumplimiento normativo (GDPR, PCI-DSS, BCBS-239) y políticas de retención. Mentoría a analistas e ingenieros en buenas prácticas de SQL / Spark, versionado y testing de datos.
- Evaluar nuevas tecnologías (Iceberg, Lake Formation, GenAI for Data) e implementar prácticas FinOps para optimizar recursos.
- Impulsar la cultura data-driven dentro de los squads.
Requisitos:
- 8+ años de experiencia en ingeniería o arquitectura de datos, con 3+ en diseño de soluciones cloud a gran escala.
- Dominio de servicios cloud, especialmente S3, Glue, EMR, Kinesis, Redshift, Lake Formation. Se valoran experiencia en Azure y GCP.
- Experiencia con Spark / Databricks, Kafka / Flink, Airflow, dbt.
- Experiencia en herramientas de linaje y gobierno como Collibra, Apache Atlas, DataHub.
- Diseño de dashboards en Power BI, Tableau o Looker.
- Conocimiento de regulaciones como GDPR, PCI-DSS, BCBS-239.
- Español nativo e inglés B2+.
- Deseables certificaciones como AWS Data Analytics Specialty, Databricks Data Engineer Professional.
- Conocimiento o experiencia en Open Banking y Lakehouse architecture usando Delta Lake, Unity Catalog o Iceberg.
Beneficios:
- Contrato indefinido y modalidad 100% remoto.
- Salario competitivo, 23 días de vacaciones, formación continua, convenios educativos, certificaciones patrocinadas, días libres por cumpleaños, bonos, sistema de puntos y proyectos internacionales.
En Apiux, promovemos un ambiente diverso, inclusivo y respetuoso, y buscamos talentos que compartan nuestros valores de innovación, colaboración y compromiso social. ¿Quieres ser un Happener e impactar el futuro con la tecnología? ¡Postúlate y sé parte del cambio!