Ähnliche Jobs
-
Systemadministrator:in / DBA (m/w/d)
BGHW - Berufsgenossenschaft Handel und Warenlogistik Premium- 53129 Bonn
- 4223 bis 6592 €
Neu kein Anschreiben nötig Homeoffice möglich Vollzeit/Teilzeit -
IT-Fachadministration (m/w/d) für den Bereich Digitalisierung und Anwenderbetreuung
Kreisausschuss des Hochtaunuskreises Premium- 61352 Bad Homburg vor der Höhe
kein Anschreiben nötig -
Kundenbetreuer (m/w/d) - E-Mobilität & Automotive Services
dg nexolution Premium- 65191 Wiesbaden
kein Anschreiben nötig Schnellbewerbung -
Identity & Access Management Mitarbeiter:in (m/w/d)
SV Informatik GmbH Premium- 68159 Mannheim
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich Vollzeit/Teilzeit -
Junior Java Developer (m/w/d)
Senacor Technologies AG Premium- 65760 Eschborn
kein Anschreiben nötig Homeoffice möglich -
Junior Data Engineer (m/w/d)
Reply Deutschland SE- Düsseldorf
Neu -
Junior Azure Data Engineer (m/w/d)
Reply Deutschland SE- Cologne
Neu Homeoffice möglich -
Data Engineer (m/w/d) - ruhrdot GmbH
ruhrdot GmbH- Essen
Neu Homeoffice möglich -
Data Engineer (w/m/d) - TV
Smartclip- Gütersloh
Neu -
KI Data Engineer (w/m/d)
SYNGENIO- Bonn
Neu Homeoffice möglich -
BI Engineer / Data Engineer (w/m/d) - Data Operations
GWQ ServicePlus- Düsseldorf
Neu Homeoffice möglich -
Junior Data Engineer (m/w/d)
nexpert AG- Detmold
Homeoffice möglich -
Data Engineer / Datenbankentwickler (m/w/d)...
inpraxi GmbH & Co. KG- Osnabrück
Neu -
KI Data Engineer (w/m/d)
SYNGENIO- Innenstadt
Neu Homeoffice möglich -
Data Engineer / Datenbankentwickler (m/w/d)
inpraxi GmbH & Co. KG- Osnabrück
Neu
EAT HAPPY GROUP
Data Engineer (m/w/d)
Cologne
- Neu
- Veröffentlicht am 17.02.2026
- Festanstellung
Das erwartet Dich:
- Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
- Entwicklung und Orchestrierung von ETL/ELT-Prozessen zur Datenintegration
- Datenmodellierung und Optimierung zur Unterstützung von Analyse- und Reporting-Anwendungen
- Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
- Enge Zusammenarbeit mit Data Scientists, Analyst:innen und Entwickler:innen zur Entwicklung datengetriebener Lösungen
- Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
- Monitoring, Logging und Performance-Tuning von Datenworkloads
- Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-Datenbanken
- Erfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)
- Gute Kenntnisse in Python (besonders für die Datenverarbeitung) und Bash-Scripting
- Erfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichem
- Sicherer Umgang mit Git, idealerweise mit Erfahrung in CI/CD-Pipelines in Azure DevOps
- Vertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)
- Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren Code
- Sehr gute Deutsch- und Englischkenntnisse
- Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich - 300 € jährliches Gesundheitsbudget sowie eine betriebliche Altersvorsorge
- Klimaneutrale Mobilität: Bezuschussung beim Jobrad-Leasing und Jobticket
- Vergünstigte Mitgliedschaft beim Urban Sports Club
- "HAPPY" Firmenspecials: Wir machen mehr als nur Sommerfest & Weihnachtsfeier
- 2-tägiges Onboarding-Event für deinen optimalen Start und dein Netzwerk bei uns