
Lead Azure Data Engineer (Kafa, Flink, Java)
Lead Azure Data Engineer (Kafa, Flink, Java)
- Location Düsseldorf
- Expertise Azure
- Job Type Permanent
- Salary € 80,000 per annum
Stellenbezeichnung: Lead Azure Data Engineer (Kafa, Flink, Java)
Überblick:
Sind Sie ein erfahrener Data Engineer mit Expertise in Azure, Kafka, Flink und Java? Möchten Sie in einer verantwortungsvollen Führungsposition innovative Datenlösungen gestalten und umsetzen? Dann bieten wir Ihnen die Chance, Ihre Fähigkeiten in einem dynamischen und zukunftsorientierten Umfeld einzubringen.
Ihre Aufgaben:
- Leitung und Gestaltung komplexer Service-Architekturen im Bereich Datenplattformen – von Design über Dokumentation bis zum gesamten Lifecycle
- Sicherstellung der IT-Sicherheit durch Einhaltung und Weiterentwicklung von Sicherheitsrichtlinien in Architektur und Betrieb
- Eigenverantwortliche Umsetzung anspruchsvoller Änderungen an Designs und Architekturen, stets mit Fokus auf technische und organisatorische Zusammenhänge
- Aufbau, Automatisierung und Betrieb von Plattformen und Services, insbesondere Middleware-as-a-Service auf Basis von Apache Kafka
- Beratung und Unterstützung von Nutzer*innen bei der Integration sowie der Weiterentwicklung ihrer Anwendungen
- Automatisierung repetitiver Aufgaben zur Steigerung von Effizienz und Zuverlässigkeit
- Enge Zusammenarbeit mit cross-funktionalen Teams zur kontinuierlichen Verbesserung der Systemstabilität und -verfügbarkeit
- Führung und Mentoring eines Teams von Data Engineers, um gemeinsame Ziele zu erreichen
Anforderungen:
- Abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation mit Schwerpunkt IT
- Fundierte Kenntnisse in der Administration von Linux-Systemen
- Erfahrung mit Automatisierungstools wie Puppet oder Ansible
- Praktische Erfahrung im Betrieb von Data-Center-Plattformen oder Cloud-Services (z. B. Proxy, DNS, VPN, IAM, Monitoring, Backup-Tools)
- Idealerweise Kenntnisse im Projekt- und Produktmanagement
- Erfahrung mit Middleware-as-a-Service, insbesondere Apache Kafka
- Kenntnisse in Monitoring-Tools (z. B. Prometheus, Grafana) sowie Logging-Stacks (z. B. EFK)
- Programmierkenntnisse, z. B. in Python, und Erfahrung im Aufbau und Betrieb von CI/CD-Pipelines
- Vertrautheit mit Container- und Orchestrierungstechnologien wie Docker und Kubernetes
- Bereitschaft, Verantwortung für systemkritische Infrastruktur zu übernehmen
- Verhandlungssichere Deutschkenntnisse und gute Englischkenntnisse
- Medizinische Tauglichkeit, Bereitschaft zu Schichtdiensten und Führerschein Klasse B
- Bereitschaft zur Sicherheitsüberprüfung gemäß Sicherheitsüberprüfungsgesetz (SÜG)
- Hands-on-Mentalität mit eigenständiger Problem-Lösungsfähigkeit
- Proaktive Arbeitsweise und die Fähigkeit, Handlungsbedarf zu erkennen und Lösungen voranzutreiben
- Ausgeprägte Teamfähigkeit sowie Kommunikationsstärke – Sie teilen Wissen, bringen Impulse ein und nehmen Feedback konstruktiv auf
Ihre Vorteile:
- Arbeiten an innovativen und zukunftsweisenden Projekten im Bereich Big Data und Cloud
- Entwicklungsmöglichkeiten und Weiterbildungsangebote in einem dynamischen Umfeld
- Mitgestaltung bei der Weiterentwicklung moderner Datenplattformen
- Kollegiales Arbeitsklima mit offener Kommunikation
- Attraktive Vergütung und flexible Arbeitsmodelle
Wenn Sie sich angesprochen fühlen und Ihre Expertise in einem führenden Unternehmen einbringen möchten, freuen wir uns auf Ihre Bewerbung. Werden Sie Teil unseres Teams und gestalten Sie die Zukunft der Datenverarbeitung aktiv mit!