Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (f/m/x)

TieTalent

Wien

Vor Ort

EUR 53 000 - 65 000

Vollzeit

Vor 25 Tagen

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Starte ganz am Anfang oder importiere einen vorhandenen Lebenslauf

Zusammenfassung

Ein führendes Unternehmen im Bereich digitale Lösungen sucht einen Data Engineer mit einem Fokus auf Databricks. In dieser Rolle übernimmst du eine zentrale Funktion in der Entwicklung von leistungsstarken Datenlösungen und arbeitest eng mit einem dynamischen Team zusammen. Du bringst mehr als 3 Jahre Erfahrung in Data Engineering, insbesondere mit Databricks und Apache Spark, mit und bist in der Lage, komplexe Datenherausforderungen zu meistern. Flexible Arbeitsmodelle und Unterstützung für deine berufliche Entwicklung sind gegeben.

Leistungen

Flexible Arbeitsmodelle
Onboarding und Mentoring
Snacks und Wohlbefinden
Mobility Support
Social Events
Career Development

Qualifikationen

  • 3+ Jahre Berufserfahrung als Data Engineer mit Databricks und Spark.
  • Ausgeprägte Programmierkenntnisse mit Python (z.B. PySpark, Spark SQL).
  • Gute Kenntnisse in SQL für Datenabfragen und -analysen.

Aufgaben

  • Entwicklung und Wartung robuster Datenpipelines mit Databricks und Spark.
  • Aufbau effizienter ETL-Prozesse für Datenübertragung in Datenbanken.
  • Zusammenarbeit mit Data Scientists zur Erfüllung von Datenbedürfnissen.

Kenntnisse

Datenmanipulation
ETL-Prozesse
Datenmodellierung

Ausbildung

Abgeschlossenes Studium im Bereich Informatik oder Data Engineering

Tools

Databricks
Apache Spark
Python
SQL
Azure
AWS
GCP
Terraform

Jobbeschreibung

About

In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team herangewachsen, welches an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Arbeitskultur. In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.

Als Data Engineer mit einem Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für unsere Kunden. In diesem Job wirst du Teil unseres wachsenden Data & AI Teams und arbeitest hands-on mit der Databricks Plattform um unseren Kunden dabei zu helfen komplexe Herausforderungen rund um das Thema Daten zu lösen.

Dein Aufgabenbereich Beinhaltet

  • Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
  • Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Data Lakes und Data Warehouses
  • Nutzung des Databricks Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger und performanter Daten-Workflows
  • Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur Ermöglichung sicherer und kosteneffizienter Datenlösungen
  • Mitgestaltung der Datenmodellierung und -architektur zur Gewährleistung von Konsistenz, Zugänglichkeit und langfristiger Wartbarkeit der Datenlandschaft
  • Gewährleistung der Datenqualität durch Validierungsprozesse und Einhaltung von Data-Governance-Richtlinien
  • Zusammenarbeit mit Data Scientists und Analysten, um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern
  • Kontinuierliche Weiterbildung in den Bereichen Databricks, Data Engineering und Cloud-Technologien zur Optimierung unserer Tools und Prozesse

Essential Skills

  • 3+ Jahre Berufserfahrung als Data Engineer mit Databricks und Apache Spark
  • Ausgeprägte Programmierkenntnisse mit Python, inklusive Erfahrung in Datenmanipulationsbibliotheken (z.B. PySpark, Spark SQL)
  • Erfahrung mit Kernbestandteilen des Databricks Ecosystems: Databricks Workflows, Unity Catalog und Delta Live Tables
  • Solides Wissen über Datenlager Prinzipien, ETL/ELT Prozesse, Datenmodellierung und Datenbanksysteme
  • Erfahrung mit mindestens einer größeren Cloud Plattform (Azure, AWS, oder GCP)
  • Ausgezeichnete SQL Skills für Datenabfragen, Datentransformationen und Analysen
  • Ausgezeichnete Kommunikationsfähigkeiten in Englisch und Deutsch (mind. B2 Level)
  • Fähigkeit eigenständig sowie im Team in einer agilen Umgebung zu arbeiten

Beneficial Skills

  • Wissen über Best Practices zum Thema Data-Governance, Datenqualität und Compliance
  • Erfahrung mit Multi-Cloud Umgebungen
  • Kentnisse über DevOps, Infrastructure-as-Code (e.g. Terraform) und CI/CD Pipelines
  • Interesse oder Erfahrung mit Machine Learning oder AI Technologien
  • Erfahrung mit Data Visualization Tools wie Power BI oder Looker
  • Flexible Working Models: Frühaufsteher oder Nachteule? Dank unserer flexiblen Arbeitsmodelle beginnst du deinen Arbeitstag wann und wo es für dich am besten passt. Wir bieten dir die Möglichkeit, hybrid zu arbeiten – du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest.
  • Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen Schulungsmöglichkeiten fort. Unser Learning & Development Team hilft dir die beste Lösung für dich zu finden!
  • Company Summit: Tausche berufliche und persönliche Erfahrungen auf unserem jährlichen firmeninternen NETCONOMY Summit aus! Ein Highlight des Events ist die lockere Atmosphäre und der Austausch mit dem internationalen Team.
  • Social Events: Knüpfe bei unseren Social Events neue Kontakte, wie zum Beispiel bei unseren Pizza Abenden, Wanderungen oder Weihnachtsfeiern, und zelebriere gemeinsam Meilensteine.
  • Snacks und Wohlbefinden: Nutze unsere Lunch Benefit und Rabatte in Partnerrestaurants, um dich in den Pausen zu stärken und frische Energie zu tanken.
  • Mobility Support: Lass doch mal das Auto stehen! Da wir unsere Verantwortung für die Umwelt ernst nehmen, unterstützen wir deine klimafreundlichen Transportkosten.

Das tatsächliche Gehalt hängt von deinen Qualifikationen und Erfahrungen ab. Uns ist es wichtig, dass wir allen Mitarbeiter:innen ein intern vergleichbares Gehalt bieten. Aus rechtlichen Gründen geben wir das jährliche Mindestgehalt für eine Vollzeitbeschäftigung gemäß dem aktuellen IT-Kollektivvertrag an, welches für diese Position € 53.802,00 Brutto / Jahr beträgt.

Nice-to-have skills

  • Pipeline
  • Terraform
  • GCP
  • SQL
  • Python
  • ETL
  • Unity
  • Spark
  • Python
  • ETL
  • SQL
  • Azure
  • AWS
  • GCP
  • Terraform
  • Machine Learning
  • Power BI
  • Looker
  • Vienna, Vienna, Austria

Work experience

  • Data Engineer

Languages

  • German
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.