New Yorker
13.02.2026
Braunschweig
learning pipelines together with a team of highly motivated data scientists • Architect and develop continuous integration & deployment processes • Operate and optimize Hadoop (Cloudera) clusters with support of the DevOps
KfW Bankengruppe
12.02.2026
Frankfurt/Main, Home Office
sind ebenfalls vertrautes Terrain. • Auch in Sachen SCM und Continuous Integration mit z.B. GIT, Maven, Jenkins oder Nexus sind Sie sicher unterwegs. Erfahrungen mit Hadoop, Bash Scripting oder Python sind von Vorteil
INFOMOTION GmbH
07.02.2026
Frankfurt/Main, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
INFOMOTION GmbH
07.02.2026
Hamburg, München, Stuttgart, Saarbrücken, Dresden, Home Office, Berlin
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
REWE digital
09.02.2026
Kiel, Home Office
in die verschiedenen Aufgabenbereiche des Software-Engineerings. • Du sammelst Erfahrung mit Programmiersprachen wie zum Beispiel Java oder Typescript. • Du verwendest Technologien oder Frameworks wie Kafka, Hadoop, JEE, Spring
INFOMOTION GmbH
12.02.2026
Köln, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
New Yorker
14.02.2026
Braunschweig
(B1+, conversational) and English (fluent) Nice to Have: Spark, Cloudera/Hadoop, Infrastructure as Code (Terraform, Ansible) YOUR BENEFITS AT NEW YORKER At NEW YORKER, you are more than just an employee - with our benefits
Max-Planck-Institut für Geoanthropologie
14.02.2026
Jena, Home Office
. • Experience with data processing & ETL tools such as Apache Hadoop, Apache Spark, Apache NiFi, etc. • Background in scientific research with a track record of high-quality publications Desirable skills: • Ability to