Vesterling AG
18.10.2025
München, Frankfurt/Main, Düsseldorf, Dortmund, Karlsruhe/Baden, Paderborn, Stralsund, Bielefeld, Berlin, Rostock
Als SAS / Hadoop / LINUX Administrator wirken Sie an der Konzeption, am Aufbau, dem sicheren Betrieb und der Optimierung des Betriebs von Big DATA Systemlandschaften mit. Unser Klient ist ein unabhängiger IT-Dienstleister
Vesterling AG
16.10.2025
Berlin/München/Frankfurt/Main/Düsseldorf/Dortmund/Leipzig/Karlsruhe/Paderborn/Bundesweit, München, Frankfurt/Main, Düsseldorf, Dortmund, Leipzig, Karlsruhe/Baden, Paderborn, Bundesweit
und Hadoop. • Sie installieren und konfigurieren neue Systeme. • Sie installieren, konfigurieren und monitoren BI / Big Data Anwendungen. • Sie bereiten Änderungen an der Systemlandschaft vor, testen diese und geben
NEW YORKER
08.01.2026
Braunschweig
with a team of highly motivated data scientists • Architect and develop continuous integration & deployment processes • Operate and optimize Hadoop (Cloudera) clusters with support of the DevOps and Infrastructure teams
S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
08.01.2026
Stuttgart, Home Office, Frankfurt/Main
, Physik, oder ähnliche Datenwissenschaften. • Fundierte Kenntnisse in Python, Spark/PySpark, Hadoop, SQL und weiteren Big Data-Technologien. • Du hast Erfahrungen im Präsentieren von Ergebnissen, z.B. mit Hilfe
S-Payment GmbH - Ein Unternehmen der DSV-Gruppe
09.10.2025
Stuttgart, Home Office, Frankfurt/Main
. • Abgeschlossenes Master-Studium oder Promotion in Mathematik, Informatik, Physik, oder ähnliche Datenwissenschaften. • Fundierte Kenntnisse in Python, Spark/PySpark, Hadoop, SQL und weiteren Big Data-Technologien. • Du hast
Lexware
02.01.2026
zu pflegen und die internen Kunden in die Lage zu versetzen, Hindernisse auf dem Weg zu Erkenntnissen zu überwinden • Praktische Erfahrung mit Big Data Frameworks (z.B. Hadoop, Spark, Airflow) sind ein großes Plus. Idealerweise
Vesterling AG
18.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
Vesterling AG
20.10.2025
Karlsruhe/Baden
und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data
INFOMOTION GmbH
05.01.2026
Frankfurt/Main, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
flaschenpost SE
06.01.2026
Köln, Berlin, Home Office, Münster
Erfahrung mit SQL-Datenbanken und Big Data Tools wie beispielsweise Hadoop, HIVE, Kafka, Spark oder HBASE • Du bringst methodische Erfahrungen im Bereich DevOps sowie entsprechender CI/CD-Tools
INFOMOTION GmbH
06.01.2026
Frankfurt/Main
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
06.01.2026
Wiesbaden
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
Sopra Steria
14.01.2026
Bundesweit/Berlin/Frankfurt/Hamburg/Köln/Leipzig/München, Hamburg, Bundesweit, Köln, Leipzig, München, Home Office, Berlin
in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric) • Sehr gute Kenntnisse in mindestens einer Programmiersprache (z. B. Python, Scala, Java
NEW YORKER
10.01.2026
Braunschweig
, version control) • Extensive experience in the use of open-source data libraries like scikit-learn, pytorch, pyspark, jupyter, pandas and airflow • Experience with Spark, Hadoop or SQL as well as the application of modern
INFOMOTION GmbH
19.10.2025
Stuttgart, Home Office, Frankfurt/Main
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
11.10.2025
Frankfurt/Main, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
19.10.2025
Hamburg, Home Office, Frankfurt/Main
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
15.10.2025
Köln, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
18.10.2025
Berlin, Home Office, Frankfurt/Main
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory
INFOMOTION GmbH
17.10.2025
München, Home Office
. • Du arbeitest mit modernen Technologien wie Python, SQL, Spark, Hadoop und lernst deren Einsatz in der Praxis. • Du unterstützt beim Aufbau skalierbarer ETL-Prozesse und Cloud-Integrationen mit Databricks, Azure Data Factory