
Enable job alerts via email!
Generate a tailored resume in minutes
Land an interview and earn more. Learn more
Sebuah perusahaan teknologi data di Indonesia mencari Data Engineer yang berpengalaman untuk membangun, menguji, dan memelihara pipeline data otomatis. Tanggung jawab termasuk mengoptimalkan arsitektur data untuk efisiensi dan skalabilitas, serta mengelola infrastruktur penyimpanan data di cloud. Kandidat ideal harus memiliki pengalaman dengan Python, SQL, serta teknologi seperti Apache Spark dan Docker. Posisi ini menawarkan peluang untuk bekerja dengan tim bisnis serta ilmuwan data dalam lingkungan yang inovatif.
Mahir membangun, mengoptimalkan, dan memelihara pipeline data otomatis menggunakan tools seperti Apache Airflow, dbt, Apache NiFi, atau Talend.
Menguasai bahasa pemrograman untuk data seperti Python dan SQL tingkat lanjut.
Memiliki pengalaman dengan Scala atau Java untuk pemrosesan data skala besar (big data processing).
Berpengalaman dengan Apache Spark (PySpark/Scala) untuk pemrosesan data terdistribusi yang efisien.
Memahami ekosistem Hadoop (HDFS, YARN, Hive) dan konsep distributed computing.
Menguasai Infrastructure as Code (IaC) menggunakan Terraform, AWS CloudFormation, atau Google Deployment Manager.
Terampil dalam pemodelan data (dimensional modeling, Data Vault 2.0, star/snowflake schema) dan optimasi performa query.
Pengalaman dengan platform streaming (Apache Kafka, Kafka Streams, Apache Flink, Amazon Kinesis).
Menguasai Docker untuk containerization dan Kubernetes.
Terbiasa dengan CI/CD untuk pipeline data.
Membangun, menguji, dan memelihara pipeline data otomatis (ETL/ELT) dari berbagai sumber
Mengoptimalkan arsitektur data untuk skalabilitas dan efisiensi biaya
Memastikan keandalan dan recoverability pipeline
Mengimplementasikan dan memelihara infrastruktur penyimpanan data (BigQuery, Redshift, Snowflake, Fabric dll.)
Mengelola partisi, indeks, dan kebijakan retensi data
Mengintegrasikan data dari sumber heterogen (database, API, streaming, file)
Mengimplementasikan data validation, cleansing, dan quality checks
Mengembangkan solusi data berskala besar menggunakan teknologi (Spark, Hadoop, Kafka, dll.)
Mengelola infrastruktur data di cloud (AWS, GCP, Azure) dengan Infrastructure as Code (IaC)
Mengimplementasikan solusi streaming data untuk kebutuhan real-time
Berkolaborasi dengan data analyst/scientist untuk menyediakan data yang siap pakai
Membangun dan memelihara tools/platform self-service data untuk tim bisnis
Membuat dokumentasi teknis dan SOP operasional data
Lamaran kamu akan mencakup pertanyaan-pertanyaan berikut:
Apa yang bisa saya dapatkan sebagai Data Engineer