-
Junior Java Developer (m/w/d)
Senacor Technologies AG Premium- 65760 Eschborn
kein Anschreiben nötig Homeoffice möglich -
(Junior) IT Lizenzmanager (all genders)
DATAGROUP Premium- 90471 Nürnberg
kein Anschreiben nötig Schnellbewerbung Homeoffice möglich -
Automation Engineer - Schwerpunkt Robotic Process Automation (w/m/d)
dm-drogerie markt GmbH + Co. KG Premium- 76227 Karlsruhe
Neu Homeoffice möglich -
Senior Business Process Owner Data Sharing (m/w/d)
Kaufland Dienstleistung GmbH & Co. KG Premium- 74072 Heilbronn
kein Anschreiben nötig -
Portfolio Manager - AI & Data
ZABEL Premium- Munich
- 65000 bis 250000 €
kein Anschreiben nötig Schnellbewerbung -
(Junior) Cloud Data Engineer (all genders)
DYMATRIX GmbH- Karlsruhe
-
Data Engineer (all genders) in Frankfurt - PRODYNA SE
PRODYNA SE- Frankfurt
-
Data Engineer (all genders) in München - PRODYNA SE
PRODYNA SE- Munich
-
Data Engineer (all genders) in Stuttgart - PRODYNA SE
PRODYNA SE- Stuttgart
Neu -
JUNIOR AZURE DATA ENGINEER
Cluster Reply- Munich
Homeoffice möglich -
Senior Cloud Data Engineer (all genders)
DYMATRIX GmbH- Stuttgart
Neu -
JUNIOR DATA ENGINEER
Blue Reply- Munich
-
JUNIOR CLOUD ENGINEER
Cluster Reply- Munich
Homeoffice möglich -
JUNIOR CLOUD ENGINEER ABSOLVENT:INNEN WILLKOMMEN!
Reply Group- Frankfurt
-
JUNIOR CLOUD ENGINEER ABSOLVENT:INNEN WILLKOMMEN!
Reply Group- Munich
(Junior) Cloud Data Engineer (all genders)
- Neu
- Veröffentlicht am 18.02.2026
- Festanstellung
In einem interdisziplinären Projektteam übernimmst Du den Part der technischen Umsetzung von Datenverarbeitungsstrecken in Batch und Realtime. Als Experte für das Data Engineering bist Du im Projekt Ansprechpartner für Kollegen und Kunden. Mit modernen cloud-basierten Technologien generierst Du - KI-unterstützt - innovative Lösungen rund um unsere Produkte.
Wir suchen Dich mit und ohne Berufserfahrung, als (Junior) Data Engineer (all genders) für unsere Standorte in Karlsruhe, Stuttgart, Hamburg, München oder Köln.
- Azure SQL Database, Azure Cosmos DB und Datalake Storage
- Weitere Komponenten aus dem Azure Stack wie Log Analytics, KeyVault, API Management
- Azure Portal
- Unternehmenseigener OpenAI-basierter KI-Assistent
- Projektverwaltung in JIRA und Confluence
- Entwicklung von Azure Functions in .NET C# zur Abbildung von Datentransformationen in Realtime. REST API
- Erstellung und Pflege von Azure Data Factory Pipelines zur Automatisierung von Datentransfers.
- Entwicklung von Azure Databricks Notebooks, insbesondere zur Implementierung von ETL-Prozessen mit PySpark – dabei sind erste Programmierkenntnisse und ein gutes Verständnis für Datenverarbeitung gefragt.
- Arbeiten mit SQL, inklusive der Durchführung von Qualitätssicherungen, Datenanalysen und gezielten Performanceoptimierungen auf Speichertechnologien wie Cosmos DB, Azure SQL DB und Data Lake Storage
- Optimierung und Feintuning der Prozesse durch Detailanalysen u. a. mit Log Analytics
- Erste Kenntnisse Programmierkenntnisse (idealerweise in C#, Python und Pyspark).
- SQL-Kenntnisse zur Datenanalyse und Qualitätssicherung
- Verständnis für Cloud-Architekturen und Datenverarbeitungsprozesse
- Interesse an konzeptionellen Themen rund um Datenmodellierung und ETL-Design
- Bereitschaft zur Weiterentwicklung in Technologien wie Databricks und Data Factory