V
Vesterling AG
18.10.2025
München, Frankfurt/Main, Düsseldorf, Dortmund, Karlsruhe/Baden, Paderborn, Stralsund, Bielefeld, Berlin, Rostock
Als SAS / Hadoop / LINUX Administrator wirken Sie an der Konzeption, am Aufbau, dem sicheren Betrieb und der Optimierung des Betriebs von Big DATA Systemlandschaften mit. Unser Klient ist ein unabhängiger IT-Dienstleister
V
Vesterling AG
16.10.2025
Berlin/München/Frankfurt/Main/Düsseldorf/Dortmund/Leipzig/Karlsruhe/Paderborn/Bundesweit, München, Frankfurt/Main, Düsseldorf, Dortmund, Leipzig, Karlsruhe/Baden, Paderborn, Bundesweit
und Hadoop.
• Sie installieren und konfigurieren neue Systeme.
• Sie installieren, konfigurieren und monitoren BI / Big Data Anwendungen.
• Sie bereiten Änderungen an der Systemlandschaft vor, testen diese und geben
H
Haufe Group
01.04.2026
Freiburg
)Kenntnisse in SQL, TypeScript und PythonNice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop)Bewerbungen bitte nur über unser Online-Formular absenden, welches du über den Button
H
Haufe Group
01.04.2026
Freiburg
)Kenntnisse in SQL, TypeScript und PythonNice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop)Bewerbungen bitte nur über unser Online-Formular absenden, welches du über den Button
H
Haufe Group
01.04.2026
Freiburg
)Kenntnisse in SQL, TypeScript und PythonNice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop)Bewerbungen bitte nur über unser Online-Formular absenden, welches du über den Button
S
S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
09.10.2025
Stuttgart, Home Office, Frankfurt/Main
.
• Abgeschlossenes Master-Studium oder Promotion in Mathematik, Informatik, Physik, oder ähnliche Datenwissenschaften.
• Fundierte Kenntnisse in Python, Spark/PySpark, Hadoop, SQL und weiteren Big Data-Technologien.
• Du hast
H
Haufe Group SE
27.03.2026
Freiburg/Breisgau
-Infrastrukturen (z. B. AWS)
• Kenntnisse in SQL, TypeScript und Python
• Nice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop) Bitte sende uns deinen Lebenslauf und ein Anschreiben
H
Haufe Group SE
26.03.2026
Freiburg/Breisgau
-Infrastrukturen (z. B. AWS)
• Kenntnisse in SQL, TypeScript und Python
• Nice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop) Bitte sende uns deinen Lebenslauf und ein Anschreiben
H
Haufe Group SE
28.03.2026
Freiburg/Breisgau
-Infrastrukturen (z. B. AWS)
• Kenntnisse in SQL, TypeScript und Python
• Nice-to-have: Erfahrung mit Infrastructure as Code, MLOps und Big-Data-Technologien (z. B. Hadoop) Bitte sende uns deinen Lebenslauf und ein Anschreiben
V
Vesterling AG
18.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
V
Vesterling AG
20.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
I
INFOMOTION GmbH
19.10.2025
Stuttgart, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
11.10.2025
Frankfurt/Main, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
19.10.2025
Hamburg, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
15.10.2025
Köln, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
18.10.2025
Berlin, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
17.10.2025
München, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
09.10.2025
Dresden, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
R
REWE digital
07.03.2026
Frankfurt/Main, Home Office
oder Frameworks wie Kafka, Hadoop, JEE, Spring oder Angular.
• Du benutzt verschiedene Datenbanken wie z.B. DB2, PostgreSQL oder Oracle
• Du erfährst wie Softwarequalität durch verschiedene Arten von Tests, wie zum Beispiel
I
INFOMOTION GmbH
10.10.2025
Hamburg, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. Dabei hast Du auch die Möglichkeit, dich in neue Technologien wie Microsoft Fabric einzuarbeiten und sie in der Praxis
