N
New Yorker
13.02.2026
Braunschweig
learning pipelines together with a team of highly motivated data scientists
• Architect and develop continuous integration & deployment processes
• Operate and optimize Hadoop (Cloudera) clusters with support of the DevOps
K
KfW Bankengruppe
12.02.2026
Frankfurt/Main, Home Office
sind ebenfalls vertrautes Terrain.
• Auch in Sachen SCM und Continuous Integration mit z.B. GIT, Maven, Jenkins oder Nexus sind Sie sicher unterwegs. Erfahrungen mit Hadoop, Bash Scripting oder Python sind von Vorteil
I
INFOMOTION GmbH
07.02.2026
Frankfurt/Main, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
I
INFOMOTION GmbH
07.02.2026
Hamburg, München, Stuttgart, Saarbrücken, Dresden, Home Office, Berlin
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
R
REWE digital
09.02.2026
Kiel, Home Office
in die verschiedenen Aufgabenbereiche des Software-Engineerings.
• Du sammelst Erfahrung mit Programmiersprachen wie zum Beispiel Java oder Typescript.
• Du verwendest Technologien oder Frameworks wie Kafka, Hadoop, JEE, Spring
I
INFOMOTION GmbH
12.02.2026
Köln, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
N
New Yorker
14.02.2026
Braunschweig
(B1+, conversational) and English (fluent) Nice to Have: Spark, Cloudera/Hadoop, Infrastructure as Code (Terraform, Ansible) YOUR BENEFITS AT NEW YORKER At NEW YORKER, you are more than just an employee - with our benefits
M
Max-Planck-Institut für Geoanthropologie
14.02.2026
Jena, Home Office
.
• Experience with data processing & ETL tools such as Apache Hadoop, Apache Spark, Apache NiFi, etc.
• Background in scientific research with a track record of high-quality publications Desirable skills:
• Ability to
