Responsibilities :
Salary : 50.000 - 60.000 per year
Requirements :
- 3+ Jahre Berufserfahrung als Data Engineer mit Databricks und Apache Spark
- Ausgeprägte Programmierkenntnisse mit Python, inklusive Erfahrung in Datenmanipulationsbibliotheken (z.B. PySpark, Spark SQL)
- Erfahrung mit Kernbestandteilen des Databricks Ecosystems: Databricks Workflows, Unity Catalog und Delta Live Tables
- Solides Wissen über Datenlager-Prinzipien, ETL / ELT-Prozesse, Datenmodellierung und Datenbanksysteme
- Erfahrung mit mindestens einer größeren Cloud-Plattform (Azure, AWS oder GCP)
- Ausgezeichnete SQL Skills für Datenabfragen, Datentransformationen und Analysen
- Ausgezeichnete Kommunikationsfähigkeiten in Englisch und Deutsch (mindestens B2 Level)
- Fähigkeit, eigenständig sowie im Team in einer agilen Umgebung zu arbeiten
Responsibilities :
- Als Data Engineer mit Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für Kunden. Du wirst Teil des wachsenden Data & AI Teams sein und hands-on mit der Databricks Plattform arbeiten, um komplexe Herausforderungen im Bereich Daten zu lösen.
- Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
- Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Data Lakes und Data Warehouses
- Nutzung des Databricks-Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger und performanter Daten-Workflows
- Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur Ermöglichung sicherer und kosteneffizienter Datenlösungen
- Mitgestaltung der Datenmodellierung und -architektur zur Gewährleistung von Konsistenz, Zugänglichkeit und langfristiger Wartbarkeit der Datenlandschaft
- Gewährleistung der Datenqualität durch Validierungsprozesse und Einhaltung von Data-Governance-Richtlinien
- Zusammenarbeit mit Data Scientists und Analysten, um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern
- Kontinuierliche Weiterbildung in den Bereichen Databricks, Data Engineering und Cloud-Technologien zur Optimierung der Tools und Prozesse
Technologies :
- Azure
- CI / CD
- Cloud
- Databricks
- DevOps
- Support
- Looker
- Machine Learning
- Power BI
- Python
- PySpark
- Spark
- Terraform
- Unity
- GameDev
More :
In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team herangewachsen, welches an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler der Arbeitskultur. In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.
UNSER ANGEBOT :
- Flexible Working Models: Möglichkeit, hybrid zu arbeiten, selbst zu entscheiden, ob im Büro oder Home Office
- Career Development & Onboarding: Strukturiertes Onboarding, Mentoring und individuelle Schulungsmöglichkeiten
- Company Summit : Jährlicher firmeninterner NETCONOMY Summit im lockeren, internationalen Austausch
- Social Events : Regelmäßige Pizza-Abende, Wanderungen, Weihnachtsfeiern und weitere Veranstaltungen
- Snacks und Wohlbefinden: Lunch Benefit und Rabatte in Partnerrestaurants
- Mobility Support : Unterstützung für klimafreundliche Transportkosten
Kontakt & Rechtliches :
Brauquartier 2, 8055 Graz, Austria
43 316 81 55 44[email protected]
Weitere Informationen zu NETCONOMY, den Standorten in Deutschland, Österreich, Schweiz, Serbien, Spanien und den Niederlanden, sowie zu Life at NETCONOMY, Branchen, Partnern und Customer Stories finden sich auf der Website.