Aufbau, Pflege und Optimierung von Views und Datenstrukturen in Snowflake, damit eine performante und skalierbare Datenverarbeitung sichergestellt ist
Integration neuer Datenquellen und Entwicklung optimierter Strukturen, um wertvolle Einblicke zu ermöglichen
Datenintegration und Transformation: Entwicklung und Wartung effizienter Datenpipelines zur Integration und Transformation von Daten für analytische und operative Anwendungen (mit Tools wie Snowflake, Snaplogic, MS Azure-Tools und Streaming-Services wie Kafka)
Datenanalyse und Visualisierung: Eigenständige Erstellung kleinerer Datenanalysen mit Python und Power BI, um zielgerichtete Datenprodukte zu entwickeln
Fullstack-Entwicklung und Betrieb dockerisierter Anwendungen: Entwicklung und Bereitstellung von Backend- und Frontend-Anwendungen zur Unterstützung datengetriebener Prozesse
Erfahrung im Umgang mit Docker und Betrieb containerisierter Anwendungen auf Linux-Systemen zur Sicherstellung einer stabilen Umgebung
Monitoring und Log-Management: Implementierung von Monitoring-Lösungen zur Sicherstellung der Performance und Stabilität von Datenpipelines und Anwendungen (u.a. Graylog)
Azure CI/CD-Pipeline-Management: Design und Pflege von CI/CD-Pipelines auf Azure DevOps zur automatisierten Bereitstellung und Verwaltung von Anwendungen und Datenpipelines
Standardisierung der Ressourcenkonfiguration zur Gewährleistung einer effizienten Bereitstellung
Technische Anforderungen
Snowflake (Data Engineering, Entwicklung und Verwaltung performanter Datenstrukturen)
Docker (Betrieb und Management containerisierter Anwendungen auf Linux)