Descripción del empleo
- Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización.
- Elaborar y mantener documentación técnica en espacios colaborativos.
- Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa.
- Integrar componentes de arquitecturas Big Data según los casos de uso.
- Asegurar que las plataformas cumplen con los requisitos del negocio.
- Dar soporte técnico en la implantación alineada con metodologías ágiles.
- Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa.
- Definir una arquitectura de metadatos para interoperabilidad y gobernanza.
- Implementar políticas de seguridad en plataformas Big Data.
- Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías.
- Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico.
- Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción.
- Participar en el diseño e implementación de soluciones de Business Intelligence.
Requisitos
Experiencia Profesional Mínima
- Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark).
- Experiencia como arquitecto / a técnico / a de Big Data.
- Liderazgo en implantación y definición técnica / arquitectura de datos.
- Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años.
Herramientas y tecnologías críticas :
- Máquinas Linux, instalación de paquetes ( Crítico )
- Lenguaje de comandos Unix, Bash, JSON
- Python
- Protocolos de internet : HTTP, HTTPS, SSL
- Herramientas Unix : CURL, NETCAT, IP
- API REST
- SOLR : instalación, manejo de APIs, backup, restore ( Crítico )
- Entorno On-premise
- OPENSHIFT
- CLOUDERA : administración, Spark, Yarn, Kerberos ( Crítico )
SE DESCARTARÁN CANDIDATURAS QUE NO TENGAN EXPERIENCIA EN SOLR, OPENSHIFT, CLOUDERA, LINUX Y PYTHON.
Entornos Cloud :
- Fundamentos de AWS
- Fundamentos de Azure
Información adicional
Formación :
- Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial.
Certificaciones valoradas :
Especial Interés :
CDP Generalist
- MapR Certified Spark Developer
- CDP Administrator – Private Cloud Base
- CCA Spark and Hadoop Developer
- CCA Administrator
Otras : CCA Data Analyst
- CCP Data Engineer
- APM – Certified Associate in Project Management
- Prince2 Foundation
- Certificaciones en Scrum / Scrum Master
- PMI-ACP : PMI Agile Certified Practitioner
- Prince2 Agile
- Cualquier otra certificación oficial relacionada con tecnologías Big Data