2411 KDE DevOps Engineer in Kundenprojekten_KA_Stuttgart_Mannheim ggfs. remote

Nur für registrierte Mitglieder
Mannheim
EUR 60.000 - 100.000
Jobbeschreibung

Join to apply for the 2411 KDE DevOps Engineer in Kundenprojekten_KA_Stuttgart_Mannheim ggfs. remote role at Kenbun IT AG

Zur Unterstützung unseres Teams in Karlsruhe, Stuttgart, Mannheim und Umgebung, ggfs. Remote suchen wir eine(n):

DEVOPS ENGINEER IN KUNDENPROJEKTEN

(W/M/D) ID: 2411KDE

Wir sind ein innovatives KI-Unternehmen aus Karlsruhe und gestalten als Vorreiter die digitale Welt von morgen aktiv mit. Die KENBUN IT AG entwickelt modernste KI-Technologien bis zur Marktreife und unterstützt Unternehmen auf ihrem Weg in die digitale Transformation. Wir setzen auf fortschrittliche Sprachlösungen wie unser natürlichsprachliches Assistenzsystem KIDOU sowie auf zukunftssichere Big Data Technologien wie unsere skalierbare KI- und Big Data Plattform KIDAN. Darüber hinaus begleiten wir unsere Kunden bei der Umsetzung innovativer Projekte in den Bereichen Künstliche Intelligenz, Big Data und Sprachsteuerung. Unsere Fachkenntnisse bringen wir in Forschungsprojekten wie CASSANDRA und IntWertL ein. Agilität ist bei uns nicht nur eine Arbeitsweise, sie ist Teil unserer Unternehmenskultur. Eigeninitiative und Verantwortung sind bei uns gelebte Praxis. Möchtest Du die Zukunft mitgestalten? Dann bewirb Dich bei uns!

Aufgaben

  • Integration und Betrieb von Big Data-Anwendungen
  • Arbeit mit Big Data-Technologien (Spark, Kafka, Redis, Hadoop)
  • Unterstützung beim Aufbau von Cloud Plattformen (OpenShift, Kubernetes, Docker, Azure, Google Cloud)
  • Deployment und Betrieb in On-Prem und Cloud Umgebungen
  • Installation und Konfiguration komplexer Big Data-Umgebungen
  • Sicherheitsmanagement in komplexen Umgebungen (Kerberos, ADS)
  • Support und Fehlermanagement
  • Automatisierung mit Tools wie Terraform, Ansible und Docker

Profil

  • Abgeschlossenes Studium im IT-Bereich oder vergleichbare Qualifikationen, z.B. durch Ausbildung
  • Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Spark, Kafka, Redis, Hadoop)
  • Sehr gute Linux (RHEL Linux) und Java Enterprise (z.B. Tomcat) Kenntnisse
  • Erfahrung mit Cloud-Plattformen wie OpenShift, Kubernetes, Docker, Azure, Google Cloud
  • Erfahrung mit Skriptsprachen (Python, Bash)
  • Kenntnisse in Jobsteuerungssystemen (z.B. Automic, Airflow)
  • Erfahrung mit Programmiersprachen wie Java, Scala oder Python
  • Selbstständige und zielorientierte Arbeitsweise
  • Kommunikations- und Teamfähigkeit
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift

Wir bieten

  • Anspruchsvolle, konzeptionelle Aufgabenstellungen
  • Viel Raum für Kreativität und die Übernahme von Verantwortung in einem abwechslungsreichen Tätigkeitsfeld
  • Individuelle Förderung zur Entfaltung Deines Potenzials
  • Persönliche Betreuung in der Einarbeitungsphase für einen reibungslosen Einstieg
  • Exzellente Arbeitsatmosphäre in einem motivierten Team mit modernster Büroausstattung
  • Flexible Arbeitszeiten und Homeoffice-Optionen
  • Vereinbarkeit von Familie und Beruf
  • Unterstützung beim Umzug
  • Beteiligung am Erfolg eines dynamisch wachsenden Startups
  • Work-Life-Balance, z.B. Sabbatical, Gesundheits- und Fitnessangebote
  • Viel Freiraum und Möglichkeiten, das Unternehmen aktiv mitzugestalten
  • 31 Tage Urlaub

Important note

Please be advised that a valid work permit for Germany is required for non-EU citizens. Applications without a valid work permit and sufficient German language skills may not be considered.