Das gibt es bei uns zu tun:
- Entwicklung von end- to end Big Data Lösungen entlang der Wertschöpfungskette der REWE Group unter Einsatz einschlägiger Technologien (Hadoop, Spark, etc.)
- Analyse und Verarbeitung großer Mengen strukturierter und unstrukturierter Daten
- Entwurf und Implementierung von Datenmodellen, Datenflüssen sowie APIs zur Ermöglichung einer performanten Nutzung großer Datenmengen
- Kontinuierliche Sicherstellung und Verbesserung der Datenqualität
- Operationalisierung von Data Science Modellen für den produktiven Einsatz
- Partizipation bei der Technologie Auswahl
- Eigenverantwortliches Arbeiten in selbstorganisierten, agilen cross- funktionalen Teams mit viel Gestaltungsspielraum und enger Zusammenarbeit mit Fachabteilungen
- Intensiver Wissensaustausch und vielfältige Weiterbildungsmöglichkeiten der persönlichen, methodischen und technischen Exzellenz
Das solltest Du können:
- Abgeschlossenes Hochschulstudium z.B. in Informatik, Mathematik Physik; wir lassen uns gerne auch von begabten und engagierten Quereinsteigern überzeugen
- Mindestens 2 Jahre praktische Erfahrung im Bereich Big Data
- Sehr gute Kenntnisse in Java, Scala oder Python
- Sehr gutes Verständnis von MapReduce; idealerweise praktische Erfahrungen mit dem Hadoop- Stack, Apache Spark, Apache Flink, Google DataFlow
- Kenntnisse von verteilten und skalierbaren Algorithmen
- Gängige Softwaretechnologien und Frameworks sind geläufig wie z.B. Spring, Maven, Git, ItelliJ, CI, CD, Docker
- Kenntnisse in SQL und NoSQL- Datenbanken, z.B. PostgreSQL, Apache HBase, Apache Cassandra, MongoDB
- Erfahrung Messaging Systemen, wie z.B. Apache Kafka
- Agiles Mindset und Teamfähigkeit
- Analytisches und kritisches Denken
- Pragmatik und Hands-On-Mentalität