Das bringt der Job:
- Wir wollen die Nutzbarkeit und den Impact unserer Datenplattform für real-time- und batch-Verarbeitung im Konzern maßgeblich steigern – mit deiner Expertise!.
- Gemeinsam mit Deinen Kollegen übernimmst Du die Verantwortung für Konzeption und Umsetzung unserer neuen, hoch performanten und robusten Datenplattform in der Cloud für big, fast & smart Data.
- Du verantwortest die Verarbeitung und Aufbereitung der Daten entlang ihres gesamten Lebenszyklus in unseren Data Pipelines der Datenstromverarbeitung.
- Du arbeitest mit unterschiedlichsten Datasets und stellst eine hohe Konsistenz sowie Verfügbarkeit sicher und schaffst neue Einblicke zu unseren Kunden.
- Du arbeitest mit unserem Data Science Kollegen im Team, um die (Daten-) Basis für neuartige Geschäfts- und Vorhersagemodelle bereitzustellen.
Das brauchen wir:
- Große Datenmengen, deren performante Verarbeitung sowie technische Innovationen sind Deine Leidenschaft.
- Du besitzt hervorragende konzeptionelle Fähigkeiten, eine schnelle Auffassungsgabe und hast viel Freude an der Arbeit im Team.
- Du hast fundierte Kenntnisse in der Verarbeitung großer, heterogener Datenmengen mit verteilten Systemen wie z.B. Hadoop, einen sicheren Umgang mit relationalen Datenbanken sowie mindestens erste Kenntnisse mit Real-Time-Ansätzen.
- Darüber hinaus verfügst du über erste Erfahrungen in der Entwicklung von skalierbaren Cloud-Lösungen auf Basis von AWS oder Google (z.B. Google Pub/Sub, Google Dataflow, o.ä).
- Starke und bewährte Entwickler-Skills, bevorzugt in Java/Scala/Python und SQL sind für dich selbstverständlich.
- Auf dein methodisches Vorgehen können wir uns verlassen: ein sauberes objekt-orientiertes oder funktionales Design, Tests und Monitorbarkeit zeichnet deine Software aus. Saubere Build- und Deploy-Prozesse sind Dir wichtig.