Propósito del Rol: Buscamos un(Arquitecto(a) de Datos Senior) apasionado(a) por diseñar soluciones escalables y modernas en la nube. Tendrás un rol clave en la evolución hacia una arquitectura lakehouse, habilitando capacidades avanzadas de análisis, machine learning y autoservicio. Serás responsable de liderar la arquitectura técnica de pipelines y gobernanza de datos, además de impulsar una cultura data-driven en toda la organización.
Principales responsabilidades:
- Diseñar y evolucionar arquitecturas lakehouse y pipelines de datos.
- Implementar ingestas, batch y streaming con baja latencia (Kafka / Flink y Spark / Databricks).
- Estandarizar esquemas y particionado (Delta / Parquet, Iceberg) optimizados para ML y BI.
- Aplicar enfoque Data as a Product: definición de contratos de datos, SLAs, y datasets en autoservicio (Redshift, Snowflake, Athena).
- Liderar la creación de dashboards con Power BI, Tableau o Looker y APIs analíticas.
- Asegurar gobernanza, linaje y calidad de datos con herramientas como Collibra, Apache Atlas, DataHub y validaciones con Great Expectations o Deequ.
- Velar por el cumplimiento normativo (GDPR, PCI-DSS, BCBS-239) y políticas de retención.
- Mentoría a analistas e ingenieros en buenas prácticas de SQL / Spark, versionado y testing de datos.
- Evaluar nuevas tecnologías (Iceberg, Lake Formation, GenAI for Data) e implementar prácticas FinOps para optimizar recursos.
- Impulsar la cultura data-driven dentro de los squads.
Requisitos:
- 8+ años de experiencia en ingeniería o arquitectura de datos, con 3+ en diseño de soluciones cloud a gran escala.
- Dominio de servicios cloud, especialmente S3, Glue, EMR, Kinesis, Redshift, Lake Formation. Se valoran experiencia en Azure y GCP.
- Experiencia con Spark / Databricks, Kafka / Flink, Airflow, dbt.
- Conocimiento en herramientas de linaje y gobierno como Collibra, Apache Atlas o DataHub.
- Diseño de dashboards en Power BI, Tableau o Looker.
- Conocimiento de regulaciones como GDPR, PCI-DSS, BCBS-239.
- Español nativo e inglés B2+.
- Certificaciones deseables: AWS Data Analytics Specialty, Databricks Data Engineer Professional.
- Conocimiento o experiencia en Open Banking y Lakehouse architecture usando Delta Lake, Unity Catalog o Iceberg.
Beneficios:
- Contrato indefinido, modalidad 100% remoto, salario competitivo.
- 23 días de vacaciones, formación continua, convenios, certificaciones, día libre en tu cumpleaños, bonos, sistema de puntos, proyectos internacionales, y más.
En Apiux, promovemos un ambiente inclusivo y diverso, valoramos la innovación, el compromiso y el crecimiento conjunto. Si quieres impactar el futuro con tecnología y tu talento, ¡postúlate y sé parte de nuestra familia!