Für unser junges Big Data Team suchen wir Verstärkung! Entwickeln Sie gemeinsam mit uns die neue Tchibo „leading edge“ BI-/Big-Data-Architektur weiter! Durch moderne Open-Source-Software und skalierender Cloud-Infrastruktur arbeiten Sie in diesem jungen Bereich an einem Realtime-fähigen Event Data Lake. Auf dieser Basis werden leistungsfähige und hochverfügbare „Data Services“ wie z.B. neue Self-Service BI Portale, Realtime-Scorings oder Machine Learning Modell mit unseren Data Scientists sowie den Fachbereichen entwickelt. Von der Anbindung von Datenquellen mit strukturierten/unstrukturierten Daten, über die Datenintegration und der Bereitstellung einer Machine Learning Infrastruktur für unsere Data Scientists, bis hin zu unseren Analyse-Tools und -Frontends entwickeln wir hoch performante Daten-Pipelines und Streaming-Architekturen. So entstehen „Data Services“ mit Business Impact. Klingt das spannend? Dann freuen wir uns auf Ihre Bewerbung!
Anforderungen
- Abgeschlossenes Studium der Informatik oder vergleichbare Qualifikation
- Mindestens drei Jahre Erfahrung im Software Engineering mit einschlägigen Methoden (CI/CD, TDD, DevOps-Mentalität), JVM-Sprachen (z. B. Java, Scala) und Erfahrung in der Entwicklung und Konzeption von Big Data Architekturen in Summe oder als Spezialist für Einzelkomponenten (Hadoop-Stack, Spark, Cassandra, Kafka, ELK-Stack, Cloud-Entwicklung (AWS), Microservices, Container, Konzeption von Frameworks, etc.)
- Erfahrungen im Bereich relationaler Datenbanken
- Verarbeitung von Daten im Batch und/oder Streaming-Modus
- Sie brennen für das Thema Big Data. Sie besitzen das Talent, kreative Lösungsstrategien zu entwickeln und so Fragestellungen zielgerichtet zu beantworten
- Optional bringen Sie Know-How im Bereich Business Intelligence/Data Warehousing mit, z.B. ETL und Datenmodellierung (vorzugsweise in Kombination mit SAP-Quell-Systemen)
- Kenntnisse in node.js und Python sind von Vorteil