Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer Schwerpunkt Cloud-Tech./Datenintegration (m/w/d)

Cs2 ITEC GmbH & Co.KG

Forchheim

Vor Ort

EUR 55.000 - 75.000

Vollzeit

Vor 6 Tagen
Sei unter den ersten Bewerbenden

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein führendes Unternehmen in der Datenengineering-Branche bietet eine spannende Möglichkeit zur Mitarbeit an internationalen Großprojekten. In einem motivierten Team übernehmen Sie die Verantwortung für die Entwicklung und Optimierung von Datenstrukturen in Snowflake sowie für die Erstellung und Wartung von Datenpipelines. Wir suchen kreative Köpfe, die eine Leidenschaft für Datenanalyse und Softwareentwicklung haben.

Leistungen

Abwechslungsreiche Tätigkeiten
Internationale Großprojekte
flexible, familienfreundliche Arbeitszeiten

Qualifikationen

  • Drei Jahre Erfahrung im Datenengineering oder ungleichwertige Qualifikation.
  • Kenntnisse in Snowflake und Docker.

Aufgaben

  • Datenengineering mit Fokus auf Snowflake und Entwicklung effizienter Datenpipelines.
  • Eigenständige Erstellung von Datenanalysen mit Python und Power BI.

Kenntnisse

Snowflake
Docker
C#
.NET
Graylog
Azure DevOps
Git
Python

Ausbildung

Studium in Informatik, Informationstechnologie, Wirtschaftsinformatik oder einen verwandten Bereich
Relevante Berufserfahrung

Tools

MS Azure
Kafka

Jobbeschreibung

Das Bieten Wir Ihnen

  • Abwechslungsreiche Tätigkeiten in einem spannenden Aufgabenumfeld
  • Internationale Großprojekte bei namhaften Kunden
  • Mitarbeit in einem sympathischen und motiviertem Team
  • Angenehmes und kollegiales Arbeitsumfeld
  • Interessante Perspektiven für die fachliche und persönliche Weiterentwicklung
  • Attraktive Vergütung und flexible, familienfreundliche Arbeitszeiten

Diese Aufgaben Warten Auf Sie

  • Data Engineering mit Fokus auf Snowflake: Aufbau, Pflege und Optimierung von Views und Datenstrukturen in Snowflake, damit eine performante und skalierbare Datenverarbeitung sichergestellt ist. Integration neuer Datenquellen und Entwicklung optimierter Strukturen, um wertvolle Einblicke zu ermöglichen.
  • Datenintegration und Transformation: Entwicklung und Wartung effizienter Datenpipelines zur Integration und Transformation von Daten für analytische und operative Anwendungen (mit Tools wie Snowflake, Snaplogic, MS Azure-Tools und Streaming-Services wie Kafka).
  • Datenanalyse und Visualisierung: Eigenständige Erstellung kleinerer Datenanalysen mit Python und Power BI, um zielgerichtete Datenprodukte zu entwickeln.
  • Fullstack-Entwicklung und Betrieb dockerisierter Anwendungen: Entwicklung und Bereitstellung von Backend- und Frontend-Anwendungen zur Unterstützung datengetriebener Prozesse. Erfahrung im Umgang mit Docker und Betrieb containerisierter Anwendungen auf Linux-Systemen zur Sicherstellung einer stabilen Umgebung.
  • Monitoring und Log-Management: Implementierung von Monitoring-Lösungen zur Sicherstellung der Performance und Stabilität von Datenpipelines und Anwendungen (u.a. Graylog).
  • Azure CI/CD-Pipeline-Management: Design und Pflege von CI/CD-Pipelines auf Azure DevOps zur automatisierten Bereitstellung und Verwaltung von Anwendungen und Datenpipelines. Standardisierung der Ressourcenkonfiguration zur Gewährleistung einer effizienten Bereitstellung.

Was Sie Mitbringen Sollten

  • Studium in Informatik, Informationstechnologie, Wirtschaftsinformatik oder einem verwandten Bereich
  • Alternativ: gleichwertige Qualifikation durch relevante Berufserfahrung (mindestens 3 Jahre im relevanten Bereich wünschenswert)
  • Snowflake (Data Engineering, Entwicklung und Verwaltung performanter Datenstrukturen)
  • Docker (Betrieb und Management containerisierter Anwendungen auf Linux)
  • C# und .NET (Backend-Entwicklung)
  • Graylog (Log-Management-System)
  • Azure DevOps (CI/CD-Pipelines, Container-Integration)
  • Git (Versionskontrolle, Team-Workflows)
  • Python (Datenanalyse, Backend-Entwicklung)
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.