Ähnliche Jobs
-
IT Netzwerk Architekt / Netzwerkadministrator (m/w/d)
Vereinigte Hagelversicherung VVaG Premium- 35392 Gießen
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich -
Testanalyst (m/w/d) AI & Cloud Applikationen
Commerz Direktservice GmbH Premium- 47057 Duisburg
kein Anschreiben nötig Homeoffice möglich -
Identity & Access Management Mitarbeiter:in (m/w/d)
SV Informatik GmbH Premium- 68159 Mannheim
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich Vollzeit/Teilzeit -
Kundenbetreuer (m/w/d) - E-Mobilität & Automotive Services
DGX Mobility Premium- 65191 Wiesbaden
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich -
Junior Java Developer (m/w/d)
Senacor Technologies AG Premium- 65760 Eschborn
kein Anschreiben nötig Homeoffice möglich -
Data Engineer - Snowflake & Grafana (m/w/d)
INTILION- Bad Lippspringe
Vollzeit/Teilzeit -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Gladbeck
Homeoffice möglich -
Data Engineer - Snowflake & Grafana (m/w/d)
INTILION- Hövelhof
Vollzeit/Teilzeit -
Data Engineer - Snowflake & Grafana (m/w/d)
INTILION- Delbrück
Vollzeit/Teilzeit -
Senior Data Engineer (m/w/d)
WUND Holding GmbH- Euskirchen
-
Junior Data Engineer (m/w/d)
Reply Deutschland SE- Innenstadt
-
Data Engineer - Snowflake & Grafana (m/w/d)
INTILION- Paderborn
Vollzeit/Teilzeit -
Junior Azure Data Engineer (m/w/d)
Reply Deutschland SE- Cologne
Homeoffice möglich -
(Senior) Data Engineer (m/w/d)
ESFORIN SE- Mülheim
Homeoffice möglich -
Data Engineer - Snowflake & Grafana (m/w/d)
INTILION- Salzkotten
Vollzeit/Teilzeit
EAT HAPPY GROUP
Data Engineer (m/w/d)
Cologne
- Veröffentlicht am 08.01.2026
- Festanstellung
Das erwartet Dich:
- Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
- Entwicklung und Orchestrierung von ETL/ELT-Prozessen zur Datenintegration
- Datenmodellierung und Optimierung zur Unterstützung von Analyse- und Reporting-Anwendungen
- Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
- Enge Zusammenarbeit mit Data Scientists, Analyst:innen und Entwickler:innen zur Entwicklung datengetriebener Lösungen
- Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
- Monitoring, Logging und Performance-Tuning von Datenworkloads
- Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-Datenbanken
- Erfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)
- Gute Kenntnisse in Python (besonders für die Datenverarbeitung) und Bash-Scripting
- Erfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichem
- Sicherer Umgang mit Git, idealerweise mit Erfahrung in CI/CD-Pipelines in Azure DevOps
- Vertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)
- Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren Code
- Sehr gute Deutsch- und Englischkenntnisse
- Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich - 300 € jährliches Gesundheitsbudget sowie eine betriebliche Altersvorsorge
- Klimaneutrale Mobilität: Bezuschussung beim Jobrad-Leasing und Jobticket
- Vergünstigte Mitgliedschaft beim Urban Sports Club
- "HAPPY" Firmenspecials: Wir machen mehr als nur Sommerfest & Weihnachtsfeier
- 2-tägiges Onboarding-Event für deinen optimalen Start und dein Netzwerk bei uns