Wir suchen dich ab sofort
Für die Position ist der Standort Köln, Stuttgart, Frankfurt a.M., München, Berlin oder Leipzig möglich!
DEINE AUFGABEN
- Konzeptionierung und Aufbau von Big Data / Analytics Plattformen
- Aufbau von Big Data Expertise innerhalb des Teams
- Auswahl von geeigneten Technologien für die Umsetzung von Data Analytics Use Cases
- Entwicklung, Ausführung und Skalierung von Daten-Pipelines auf Cluster-Architekturen
- Entwurf und Umsetzung von Datenmodellen
- Bereitstellung von Daten in geeigneten Speichertechnologien für verschiedenste Anwendungszwecke wie interaktive Dashboards und statistische Analysen
- Beurteilung der Datenqualität und Durchführung von Transformationen zur Datenbereinigung
- Unterstützung des Data Science Teams bei der Entwicklung von statistischen Modellen
- Operationalisierung von Modellen und Ergebnissen der Data Scientists, um diese zur produktiven Nutzung zur Verfügung zu stellen bzw. zu automatisieren
DEIN PROFIL
- 5 Jahre Erfahrung in Konzeption und Umsetzung von Datenplattformen und Data Management Prozessen
- Mindestens 2 Jahre Umsetzungserfahrung unter Nutzung des Hadoop Ecosystems
- Mindestens 3 Jahre Erfahrung in z.B. Scala, Python, Java, PySpark, R, SQL und der Umsetzung von Daten-Pipelines mit Apache Spark
- Guten Gesamtüberblick der aktuellen (und historischen) Methodenlandschaft
- Erfahrung im Umgang mit UNIX Systemen und Netzwerkkonfiguration sowie mit CI/CD Tools wie GitLabs, Jenkins etc.
- Erfahrung in agilen Vorgehensmodellen und in der Führung eines Entwicklerteams
- Sehr gute Deutschkenntnisse
- hohe Reisebereitschaft