Ähnliche Jobs
-
Systemadministrator:in / DBA (m/w/d)
Berufsgenossenschaft Handel und Warenlogistik Premium- 53129 Bonn
- 4223 bis 6592 €
kein Anschreiben nötig Homeoffice möglich Vollzeit/Teilzeit -
Junior Java Developer (m/w/d)
Senacor Technologies AG Premium- 65760 Eschborn
Neu kein Anschreiben nötig Homeoffice möglich -
Identity & Access Management Mitarbeiter:in (m/w/d)
SV Informatik GmbH Premium- 68159 Mannheim
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich Vollzeit/Teilzeit -
Testanalyst (m/w/d) AI & Cloud Applikationen
Commerz Direktservice GmbH Premium- 47057 Duisburg
kein Anschreiben nötig Noch 4 Tage online Homeoffice möglich -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Gladbeck
Homeoffice möglich -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Gelsenkirchen
Homeoffice möglich -
KI Data Engineer (w/m/d)
SYNGENIO- Cologne
Neu Homeoffice möglich -
KI Data Engineer (w/m/d)
SYNGENIO- Innenstadt
Neu Homeoffice möglich -
IT Data Engineer (m/w/d)
Friedhelm Loh Group- Haiger
Neu -
Cloud Data Engineer (w/m/d)
S&N Invent- Münster
Neu -
Junior Data Engineer (m/w/d)
Reply Deutschland SE- Düsseldorf
Neu -
KI Data Engineer (w/m/d)
SYNGENIO- Bonn
Neu Homeoffice möglich -
Junior Data Engineer (m/w/d)
nexpert AG- Detmold
Homeoffice möglich -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Essen
Homeoffice möglich -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Bottrop
Homeoffice möglich
EAT HAPPY GROUP
Data Engineer (m/w/d)
Cologne
- Neu
- Veröffentlicht am 05.02.2026
- Festanstellung
Das erwartet Dich:
- Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
- Entwicklung und Orchestrierung von ETL/ELT-Prozessen zur Datenintegration
- Datenmodellierung und Optimierung zur Unterstützung von Analyse- und Reporting-Anwendungen
- Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
- Enge Zusammenarbeit mit Data Scientists, Analyst:innen und Entwickler:innen zur Entwicklung datengetriebener Lösungen
- Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
- Monitoring, Logging und Performance-Tuning von Datenworkloads
- Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-Datenbanken
- Erfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)
- Gute Kenntnisse in Python (besonders für die Datenverarbeitung) und Bash-Scripting
- Erfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichem
- Sicherer Umgang mit Git, idealerweise mit Erfahrung in CI/CD-Pipelines in Azure DevOps
- Vertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)
- Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren Code
- Sehr gute Deutsch- und Englischkenntnisse
- Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich - 300 € jährliches Gesundheitsbudget sowie eine betriebliche Altersvorsorge
- Klimaneutrale Mobilität: Bezuschussung beim Jobrad-Leasing und Jobticket
- Vergünstigte Mitgliedschaft beim Urban Sports Club
- "HAPPY" Firmenspecials: Wir machen mehr als nur Sommerfest & Weihnachtsfeier
- 2-tägiges Onboarding-Event für deinen optimalen Start und dein Netzwerk bei uns