Job Search and Career Advice Platform

Enable job alerts via email!

Senior Data Engineer

SIGMATECH

Indonesia

On-site

IDR 200.000.000 - 300.000.000

Full time

Yesterday
Be an early applicant

Generate a tailored resume in minutes

Land an interview and earn more. Learn more

Job summary

Sebuah perusahaan teknologi di Indonesia sedang mencari seorang Data Engineer untuk mengelola dan menganalisis data. Tugas ini meliputi pembuatan pipeline data, pengelolaan server job scheduler, dan kolaborasi dengan tim untuk memecahkan masalah teknis. Kandidat harus memiliki pengalaman yang kuat dalam alat analisis dan pemrosesan data seperti SQL dan berbagai database. Pengetahuan tentang alat seperti Apache Kafka dan Docker juga sangat dihargai.

Qualifications

  • Memahami pemrograman dan analisis data.
  • Pengalaman dalam pengelolaan data dan alat pemrosesan data.
  • Pengalaman mengerjakan proyek data besar.

Responsibilities

  • Membuat perencanaan aktivitas pekerjaan.
  • Membuat stream pipeline untuk pemrosesan data waktu nyata.
  • Membuat datamart untuk laporan dan dashboard.
  • Mengumpulkan dan mengelola data dengan baik.
  • Berkolaborasi dengan tim untuk memecahkan masalah teknis.

Skills

Phyton
Advance SQL
MySQL
PostgreSQL
Oracle
Snowflake
Data Pipeline Automation
Apache Kafka
Data Visualization Tools
Cloud Native Technologies

Tools

Docker
Kubernetes
Apache Airflow
Pandas
BeautifulSoup
Job description
Requirements
  • Programming language
  • Phyton
  • Advance SQL (subquery, ROW_NUMBER, RANK, PARTITION BY, Indexing, Explain Plan, dan Query Tuning, Stored Procedures, Triggers, View, Materialize View, Constraints, indexing, query optimization)
  • Database Systems
  • MySQL
  • PostgreSQL
  • Oracle
  • Snowflake
  • Unstructured Data
  • Data modeling dan arsitektur
  • Distributed Data Storage Systems (partitioned data storage, sorting key, SerDes, data replication, caching and persistence)
  • Distributed Data Processing Systems (partitioning, predicate pushdown, sort by partition, maintaining size of shuffle blocks, window function, leveraging all cores and memory available in the cluster to improve concurrency)
  • Stream Data Processing (Real-time, Stream and Batch Processing)
  • Tools
  • Data Pipelines and Automation (Airbyte)
  • Data ingestion in Message Queues
  • Data Wrangling operations – Pandas,numpy,re
  • Data Scraping – requests/BeautifulSoup/lxml/Scrapy
  • Interacting with External APIs and other Data Sources, Logging
  • Parallel processing Libraries – Dask, Multiprocessing
  • Data engineering tools (Apache Kafka, Apache Airflow)
  • Cloud Native Technologies (Serverless Computing, Virtual Instances, Containering – Docker, Orchestration -Kubernetes)
  • Data Visualization (Qlikview, Tableau)
Jobdesc
  • Membuat perencanaan aktivitas pekerjaan.
  • Membuat stream pipeline for realtime data processing.
  • Membuat datamart untuk report dan dashboard.
  • Mengumpulkan, mengurutkan, membersihkan, dan mengelola data.
  • Melakukan analisis dan memberikan hasil analisis kepada tim.
  • Mengelola data transfer (tally data) dari database transaksi ke data warehouse.
  • Mengelola server job scheduler.
  • Berkolaborasi dengan tim untuk mengidentifikasikan dan memperbaiki masalah teknis pada backend dan frontend.
  • Membuat laporan pekerjaan bulanan.
Get your free, confidential resume review.
or drag and drop a PDF, DOC, DOCX, ODT, or PAGES file up to 5MB.