The National Research Data Infrastructure (NFDI) is an outstanding infrastructure initiative for the science communities in Germany with the aim to harness the great potential of Research Data as a valuable resource for science and research. As of 1st October 2020, the first round of NFDI consortia will receive funding for a period of five years, with the option of a five-year extension. TIB will play a key role in shaping the NFDI from the very beginning.
Attention talented individual! This is not just another job posting.
This is an opportunity to challenge yourself and make your mark on the world. You’ll finally be able to contribute your skills and expertise to a company - and to a product - making a real difference in the lives of millions of people every single day.
How?
Doodle revolutionizes the way the world schedules meetings. Our suite of scheduling tools enables individuals and enterprises around the world to own their time, be more productive, and grow their businesses.
The National Research Data Infrastructure (NFDI) is an outstanding infrastructure initiative for the science communities in Germany with the aim to harness the great potential of Research Data as a valuable resource for science and research. As of 1st October 2020, the first round of NFDI consortia will receive funding for a period of five years, with the option of a five-year extension. TIB will play a key role in shaping the NFDI from the very beginning.
Writing the future. Together.Avaloq is a value driven, fast-paced financial technology and services company and we are committed to developing the banking solutions of tomorrow.
By joining Avaloq, you’ll become a key part of our effort to power the digital transformation of the financial services industry. Our ambition is big and bold – to provide full end-to-end digital solutions by combining our leading efficiency with a flexible, responsible digital user experience.
STARTDATUM
Ab Sofort
STANDORT
Die Position ist an den Standorten Berlin, Leipzig, Köln, Frankfurt a.M., Stuttgart oder München zu besetzten!
DEINE AUFGABEN
Deine Aufgaben als Data Architect bei [at] sind vielfältig! Einen kleinen Überblick findest du hier:
Konzeptionierung und Aufbau von Big Data / Analytics PlattformenAuswahl von geeigneten Technologien für die Umsetzung von Data Analytics Use CasesEntwicklung, Ausführung und Skalierung von Daten-Pipelines auf Cluster-ArchitekturenEntwurf und Umsetzung von DatenmodellenBereitstellung von Daten in geeigneten Speichertechnologien für verschiedenste Anwendungszwecke wie interaktive Dashboards und statistische AnalysenBeurteilung der Datenqualität und Durchführung von Transformationen zur DatenbereinigungUnterstützung des Data Science Teams bei der Entwicklung von statistischen ModellenDEIN PROFIL
STARTDATUM
Ab Sofort
STANDORT
Die Position ist an den Standorten Berlin, Leipzig, Köln, Frankfurt a.M., Stuttgart oder München zu besetzten!
DEINE AUFGABEN
Deine Aufgaben als Data Engineer bei [at] sind vielfältig! Einen kleinen Überblick findest du hier:
Entwerfe, entwickle, teste, debugge, automatisiere, dokumentiere und pflege DatenpipelinesWähle die Technologien für die Implementierung von Data Analytics Use CasesEntwickle Datenpipelines auf Basis von Cluster-ArchitekturenVisualisiere Daten für verschiedene ZweckeBewerte die Datenqualität und führe wenn nötig eine Datenbereinigung durchDEIN PROFIL
Als Data Engineer bei [at] solltest du folgendes mitbringen:
STARTDATUM
Ab Sofort
STANDORT
Die Position ist an den Standorten Berlin, Leipzig, Köln, Frankfurt a.M., Stuttgart oder München zu besetzten!
DEINE AUFGABEN
Deine Aufgaben als Senior Data Engineer bei [at] sind vielfältig! Einen kleinen Überblick findest du hier:
Entwerfe, entwickle, teste, debugge, automatisiere, dokumentiere und pflege DatenpipelinesWähle die Technologien für die Implementierung von Data Analytics Use CasesEntwickle Datenpipelines auf Basis von Cluster-ArchitekturenVisualisiere Daten für verschiedene ZweckeBewerte die Datenqualität und führe wenn nötig eine Datenbereinigung durchDEIN PROFIL
Als Senior Data Engineer bei [at] solltest du folgendes mitbringen:
Wir suchen dich ab sofort
Für die Position ist der Standort Köln, Stuttgart, Frankfurt a.M., München, Berlin oder Leipzig möglich!
DEINE AUFGABEN
Konzeptionierung und Aufbau von Big Data / Analytics Plattformen Aufbau von Big Data Expertise innerhalb des Teams Auswahl von geeigneten Technologien für die Umsetzung von Data Analytics Use Cases Entwicklung, Ausführung und Skalierung von Daten-Pipelines auf Cluster-Architekturen Entwurf und Umsetzung von DatenmodellenBereitstellung von Daten in geeigneten Speichertechnologien für verschiedenste Anwendungszwecke wie interaktive Dashboards und statistische Analysen Beurteilung der Datenqualität und Durchführung von Transformationen zur Datenbereinigung Unterstützung des Data Science Teams bei der Entwicklung von statistischen Modellen Operationalisierung von Modellen und Ergebnissen der Data Scientists, um diese zur produktiven Nutzung zur Verfügung zu stellen bzw.
Are you passionate about creatively using technology, and both learning new things, as well as going deep into the technologies you use? Do you like the challenge of working with big data systems, operating at a very large scale of data?
Our data engineering team is looking for a skilled data architect and -engineer, who is an expert on systems level and can help define, build and optimize our core analytics and data science data structures.
The Role
Are you looking to influence the design and development of a consumer product that will touch millions of people? Are you a self-starter with a passion for both your work and the start-up adventure? Do you have exceptional skills in statistics and programming? Are you looking to play a foundational role at a very quickly-growing company? If yes, we should talk.
We are looking for a Senior Machine Learning (ML) Software Engineer (m/f/d) to help us design and develop machine learning and deep learning systems.
Senior Software Engineer (w/m), 80 - 100%
ARGUS DATA INSIGHTS® Schweiz AG ist der führende Anbieter von integrierten Business Intelligence Lösungen in der Schweiz mit Hauptsitz in Zürich. Basis des Erfolges ist die einzigartige Kombination aus einer umfassenden globalen Medienabdeckung, innovativer Technologie, persönlicher Beratung und mehr als 100 Jahren Erfahrung. Rund 180 Medien-, Kommunikations-, Analyse- und Daten-Experten finden, verdichten und analysieren relevante Medieninhalte zu hochwertigen Medienspiegeln, Analysen und Insights für fundierte Entscheidungen in Kommunikation, Marketing und Strategie.
Als Software Engineer für Business Intelligence & Data Warehouse sind Sie Teil unseres Business Intelligence Teams. Sie setzen mit agilen Methoden gemeinsam mit dem Team Business Intelligence Anforderungen um.Ihre Aufgaben:
Weiterentwicklung des bestehenden BI/DWH-Systems (End-to-End)Entwicklung von ETL ProzessenErweiterungen, Refactoring des Data Vault Model des Enterprise Data WarehouseTechnische Definition, Erweiterung und Umsetzung von Data MartsTechnischer Aufbau von QlikView Komponenten für die DatenanalyseUmsetzung von automatisch erzeugten Berichten mittels Pentaho Report DesignerGemeinschaftliche Umsetzung von User Stories zusammen mit Scrum-Teams inklusive Pair Programming, Code Reviews, Testdaten Erstellung etc.
<p>For the application of modern machine learning techniques to complex NLP problems we are looking for an exceptionally experienced and creative engineer / scientist. In a small interdisciplinary Scrum team you will apply state-of-the-art deep learning methods to real-world problems, process large amounts of data and deploy production quality models at scale.</p><p><strong>Your main tasks include</strong></p><ul><li>Conception, design and implementation of mission-critical ML & AI solutions (analysis, architecture, design, implementation & deployment of end-to-end systems)</li><li>Design and implementation of data acquisition, ingestion, validation, transformation, augmentation and visualization pipelines</li><li>Investigating new approaches and evaluating new technologies and tools</li></ul><p><strong>Preferred qualifications</strong></p><ul><li>Master's / PhD in Computer Science, Data Science or equivalent work experience</li><li>Practical experience in machine learning technologies related to NLP for tasks such as Embeddings, Named Entity Recognition, Classification, Taxonomies Construction, Sentiment Analysis, Text Similarity and Predictive Modelling</li><li>Hands-on experience with ML toolkits such as Gorgonia, Tensorflow, Keras, PyTorch etc.
Please note that due to the current climate with COVID-19, we are not able to accept candidates at the moment. However, we are hoping for the situation to relax soon, so we can restart our recruiting processes.
CARFAX Europe is the leading vehicle history data company within the European market. We are acquiring and processing data related to vehicles from various sources. As a member of the Data Technology Team you will be responsible for building applications around these extensive data sets.
Java Developer - Scala / Big Data vacancy for a globally operating Zurich based company in the financial sector.
Your experience/skills:
5+ years of work experience in software development using Scala and Java languages also containing experience as architect or technical leadExpertise with building data-intensive IT solutions using No-SQL and Big Data databases along with relational databasesKnowhow of Hadoop distributions like Cloudera or Hortonworks plus cloud-based technologies and Test Driven DevelopmentKnowledge in building distributed data processing pipelines via Apache Flink or Apache Spark while also working with data streaming technologies like Apache Kafka or KinesisSkillset including the ability to shape software architecture and integrating emerging open-source technologiesExperience with agile working methodology plus basic project management skills, Python, Apache Druid and elastic technology stack like Elastic, Logstash or Kibana are a plusLanguages: English, fluent in written and spokenYour tasks:
Please note: Fluency in German is mandatory for this position.
Du möchtest gerne mit Leuten zusammenarbeiten, die wissen wovon sie sprechen? Du hast keine Lust mehr auf Office-Politik und möchtest lieber produktive Gespräche über die Weiterentwicklung deiner Produkte und deines Teams führen? Du möchtest Teil eines Teams von Menschen werden, die großartige Produkte bauen statt große Töne zu spucken?
Bei Lotum konzipieren, entwickeln und betreiben wir Mobile Games für iOS, Android und die Facebook-Plattform.
Job Overview
Are you interested in the financial markets and its instruments, such as ETFs? Are you highly motivated and keen on working in a strongly growing, successful and challenging environment? Do you enjoy working in small and agile teams? Do you like analyzing complex problems and finding elegant solutions? Do you love to connect the latest technologies with complex products? Then you will very likely fit into our team!
Digital value creator.
We have lots of ideas about how to successfully drive digitalization in companies. For example, with open cloud platforms, highly developed security systems, and clever tools for developers. What is your role in this? Move the world from behind the scenes with your IT expertise and passion for game-changing information technology. Rethink IT and steer projects in completely new directions. Be bold when others would have given up.
The world of esports is experiencing explosive growth and, with that growth comes a wealth of opportunities. In a billion-dollar industry, where data is king, we at Bayes Esports Solutions have claimed our place as the newest leader in the market.
With our cutting-edge technology-driven products, we solve real issues that esport organizers, teams and media companies are facing everyday backed-up by our very own machine learning algorithms. Partnerships with some of the biggest names in the esports and betting industries put Bayes in a unique position that allows us to make a real impact in this vibrant and exciting space.
The Role
As a big data engineer, you will be responsible for developing solutions and implementing requirements around our large-scale data processing platform in the Amazon cloud.This includes writing automated loaders that ingest data from various sources, developing modules to enrich raw data with additional attributes and designing algorithms to connect millions of data points every weekIn addition, you will work on algorithms to derive insights from our data set and implement tools to ensure a frictionless delivery of data to our customers all around the globe.