Propósito del Rol
Buscamos un(a) Arquitecto(a) de Datos Senior apasionado(a) por diseñar soluciones escalables y modernas en la nube. Tendrás un rol clave en la evolución hacia una arquitectura lakehouse, habilitando capacidades avanzadas de análisis, machine learning y autoservicio. Serás responsable de liderar la arquitectura técnica de pipelines y gobernanza de datos, además de impulsar una cultura data-driven en toda la organización.
Principales responsabilidades
- Diseñar y evolucionar arquitecturas lakehouse y pipelines de datos.
- Implementar ingestas, batch y streaming con baja latencia (5 min) utilizando Kafka / Flink y Spark / Databricks.
- Estandarizar esquemas y particionado (Delta / Parquet, Iceberg) optimizados para ML y BI.
- Aplicar enfoque Data as a Product : definición de contratos de datos, SLAs, y datasets en autoservicio (Redshift, Snowflake, Athena).
- Liderar la creación de dashboards con Power BI, Tableau o Looker y APIs analíticas.
- Asegurar gobernanza, linaje y calidad de datos con herramientas como Collibra, Apache Atlas, DataHub y validaciones con Great Expectations o Deequ.
- Velar por el cumplimiento normativo (GDPR, PCI-DSS, BCBS-239) y políticas de retención.
- Mentoría a analistas e ingenieros en buenas prácticas de SQL / Spark, versionado y testing de datos.
- Evaluar nuevas tecnologías (Iceberg, Lake Formation, GenAI for Data) e implementar prácticas FinOps para optimizar recursos.
- Impulsar la cultura data-driven dentro de los squads.
Requisitos
- 8+ años de experiencia en ingeniería o arquitectura de datos, con 3+ en diseño de soluciones cloud a gran escala.
- Dominio de servicios cloud, especialmente AWS (S3, Glue, EMR, Kinesis, Redshift, Lake Formation). Se valoran también experiencia en Azure o GCP.
- Experiencia con Spark / Databricks, Kafka / Flink, Airflow, y dbt.
- Experiencia en herramientas de linaje y gobierno como Collibra, Apache Atlas o DataHub.
- Diseño de dashboards en Power BI, Tableau o Looker.
- Conocimiento de regulaciones como GDPR, PCI-DSS, BCBS-239.
- Español nativo e inglés B2+.
Deseables
- Certificaciones como AWS Data Analytics Specialty o Databricks Data Engineer Professional.
- Conocimiento o experiencia en Open Banking.
- Experiencia avanzada en Lakehouse architecture utilizando Delta Lake, Unity Catalog o Iceberg.
Beneficios de ser un Happener
- Contrato indefinido
- Modalidad 100% Remoto
- Salario competitivo según valía
- 23 días de vacaciones hábiles por año laborado
- Apiux Academy : formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo
- Convenios con Open English
- Convenios con Coderhouse
- Certificaciones patrocinadas con Google Cloud, AWS, ISTQB
- Día de cumpleaños libre
- Bonos por nacimiento, matrimonio y referidos
- Happy Points : sistema de puntos canjeables por días libres
- Proyectos de larga duración y, en algunos casos, de alcance internacional
- Y-Share : posibilidad de ser dueño de una parte de la compañía
En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio. Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes.
Qué hacemos?
Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener.
Ser un Happener
Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor.
J-18808-Ljbffr