V
Vesterling AG
18.10.2025
München, Frankfurt/Main, Düsseldorf, Dortmund, Karlsruhe/Baden, Paderborn, Stralsund, Bielefeld, Berlin, Rostock
Als SAS / Hadoop / LINUX Administrator wirken Sie an der Konzeption, am Aufbau, dem sicheren Betrieb und der Optimierung des Betriebs von Big DATA Systemlandschaften mit. Unser Klient ist ein unabhängiger IT-Dienstleister
V
Vesterling AG
16.10.2025
Berlin/München/Frankfurt/Main/Düsseldorf/Dortmund/Leipzig/Karlsruhe/Paderborn/Bundesweit, München, Frankfurt/Main, Düsseldorf, Dortmund, Leipzig, Karlsruhe/Baden, Paderborn, Bundesweit
und Hadoop.
• Sie installieren und konfigurieren neue Systeme.
• Sie installieren, konfigurieren und monitoren BI / Big Data Anwendungen.
• Sie bereiten Änderungen an der Systemlandschaft vor, testen diese und geben
N
NEW YORKER
08.01.2026
Braunschweig
with a team of highly motivated data scientists
• Architect and develop continuous integration & deployment processes
• Operate and optimize Hadoop (Cloudera) clusters with support of the DevOps and Infrastructure teams
S
S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
08.01.2026
Stuttgart, Home Office, Frankfurt/Main
, Physik, oder ähnliche Datenwissenschaften.
• Fundierte Kenntnisse in Python, Spark/PySpark, Hadoop, SQL und weiteren Big Data-Technologien.
• Du hast Erfahrungen im Präsentieren von Ergebnissen, z.B. mit Hilfe
S
S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
09.10.2025
Stuttgart, Home Office, Frankfurt/Main
.
• Abgeschlossenes Master-Studium oder Promotion in Mathematik, Informatik, Physik, oder ähnliche Datenwissenschaften.
• Fundierte Kenntnisse in Python, Spark/PySpark, Hadoop, SQL und weiteren Big Data-Technologien.
• Du hast
L
Lexware
02.01.2026
zu pflegen und die internen Kunden in die Lage zu versetzen, Hindernisse auf dem Weg zu Erkenntnissen zu überwinden
• Praktische Erfahrung mit Big Data Frameworks (z.B. Hadoop, Spark, Airflow) sind ein großes Plus. Idealerweise
V
Vesterling AG
18.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
V
Vesterling AG
20.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
I
INFOMOTION GmbH
05.01.2026
Frankfurt/Main, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
F
flaschenpost SE
06.01.2026
Köln, Berlin, Home Office, Münster
Erfahrung mit SQL-Datenbanken und Big Data Tools wie beispielsweise Hadoop, HIVE, Kafka, Spark oder HBASE
• Du bringst methodische Erfahrungen im Bereich DevOps sowie entsprechender CI/CD-Tools
I
INFOMOTION GmbH
06.01.2026
Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
06.01.2026
Wiesbaden
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
S
Sopra Steria
14.01.2026
Bundesweit/Berlin/Frankfurt/Hamburg/Köln/Leipzig/München, Hamburg, Bundesweit, Köln, Leipzig, München, Home Office, Berlin
in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
• Sehr gute Kenntnisse in mindestens einer Programmiersprache (z. B. Python, Scala, Java
N
NEW YORKER
10.01.2026
Braunschweig
, version control)
• Extensive experience in the use of open-source data libraries like scikit-learn, pytorch, pyspark, jupyter, pandas and airflow
• Experience with Spark, Hadoop or SQL as well as the application of modern
I
INFOMOTION GmbH
19.10.2025
Stuttgart, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
11.10.2025
Frankfurt/Main, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
19.10.2025
Hamburg, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
15.10.2025
Köln, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
18.10.2025
Berlin, Home Office, Frankfurt/Main
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
I
INFOMOTION GmbH
17.10.2025
München, Home Office
.
• Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis.
• Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
