¡Activa las notificaciones laborales por email!

Data Engineer – Proyecto

KIBERNUM S.A.

Santiago

Híbrido

CLP 20.000.000 - 40.000.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa tecnológica en crecimiento busca un profesional para desarrollar canalizaciones de datos en GCP. Se requiere experiencia en Python, GCP y SQL. Ofrecemos un entorno de trabajo híbrido, capacitación constante y un paquete de beneficios competitivo. Únete a nuestro equipo dinámico y haz la diferencia en el panorama tecnológico.

Servicios

Ambiente de trabajo flexible
Desarrollo profesional
Colaboración con profesionales talentosos

Formación

  • Experiencia en Python: dominio sólido para el desarrollo de soluciones de datos.
  • Conocimiento en nube (GCP): experiencia con BigQuery y Cloud Functions.
  • Habilidades en SQL: experiencia con bases de datos relacionales y no relacionales.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos en GCP.
  • Conectar diversas bases de datos y asegurar su integridad.
  • Implementar procesos de ingestión y transformación de datos automatizados.

Conocimientos

Python
GCP
SQL
Automatización
Herramientas de procesamiento de datos
Descripción del empleo
Overview

Kibernum, una de las empresas líderes en tecnología, con presencia en Chile, Perú, Colombia y USA. Contamos con más de 30 años entregando servicios de calidad y valor agregado a nuestros clientes.

En Kibernum somos reconocidos por nuestra excelencia en la industria tecnológica. Ofrecemos un entorno colaborativo y dinámico donde la innovación y el desarrollo profesional son prioridades. Nuestra misión es transformar el panorama tecnológico y, para ello, necesitamos a los mejores talentos.

Funciones del cargo
  • Diseño y Desarrollo de canalizaciones de datos: crearás pipelines de datos robustos y eficientes en GCP.
  • Ingesta y gestión de datos: conectarás diversas bases de datos y sistemas, asegurando su integridad y calidad.
  • Optimización y seguridad: mejorarás el rendimiento de los sistemas de almacenamiento y garantizarás la seguridad de los datos.
  • Automatización: implementarás procesos de ingestión y transformación de datos automatizados.
  • Monitoreo y resolución de problemas: supervisarás nuestros sistemas de datos y resolverás cualquier incidente que surja.
Condiciones
  • Contrato por proyecto hasta diciembre.
  • Modalidad híbrida: dos días a la semana en la oficina (martes y miércoles).
  • Horario: de lunes a viernes de 09:00 a 18:30.
Requisitos
  • Experiencia en Python: dominio sólido para el desarrollo de soluciones de datos.
  • Conocimiento en nube (GCP): experiencia con BigQuery, Cloud Functions y otras herramientas de GCP.
  • Habilidades en SQL: conocimientos profundos y experiencia con bases de datos relacionales y no relacionales.
  • Automatización y CI/CD: experiencia con herramientas como Airflow y Terraform.
  • Manejo de grandes volúmenes de datos: experiencia con data lakes y herramientas de procesamiento de datos como Apache Spark.
  • Mínimo 2-3 años de experiencia en un rol similar.
  • Conocimientos en GCP, Python y SQL.
  • Inglés medio (B1+).
Beneficios
  • Ambiente de trabajo flexible: modalidad híbrida, combinando días presenciales y remotos.
  • Desarrollo profesional: oportunidades de capacitación y crecimiento constante.
  • Equipo dinámico: colaboración con profesionales talentosos y apasionados.
  • Beneficios competitivos: paquete de beneficios atractivo y equilibrio entre vida laboral y personal.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.