-
(Senior) IT Engineer (m/w/d) Klinische Systeme (PACS)
Universitätsklinikum Heidelberg Premium- 69120 Heidelberg
Homeoffice möglich -
Junior Java Developer (m/w/d)
Senacor Technologies AG Premium- 65760 Eschborn
kein Anschreiben nötig Homeoffice möglich -
Automation Engineer - Schwerpunkt Robotic Process Automation (w/m/d)
dm-drogerie markt GmbH + Co. KG Premium- 76227 Karlsruhe
Homeoffice möglich -
(Junior) Data Engineer (m/w/d)
nexpert AG- Lahr/Schwarzwald
Homeoffice möglich -
Senior Consultant Data Engineering & Analytics - Aufbau & Design / Cloud-Lösungen (m/w/d)
ISR Information Products AG- Innenstadt
-
Data Engineer
Sogeti, part of Capgemini- Gentingen
-
AWS Junior Cloud Engineer (m/w/d)
Devoteam A Cloud Germany- Frankfurt
-
JUNIOR DATA ENGINEER
Arlanis Reply- Frankfurt
-
Data Engineer
Sogeti, part of Capgemini- Körperich
-
Data Engineer
Sogeti, part of Capgemini- Daleiden
-
Data Engineer
Sogeti, part of Capgemini- Rodershausen
-
Data Engineer
Sogeti, part of Capgemini- Bollendorf
-
Data Engineer
Sogeti, part of Capgemini- Wallendorf
-
JUNIOR CLOUD ENGINEER ABSOLVENT:INNEN WILLKOMMEN!
Reply Group- Frankfurt
-
Junior Cybersecurity Engineer (all genders)
XITASO GmbH IT & Software Solutions- Augsburg
(Junior) Cloud Data Engineer (all genders)
- Veröffentlicht am 22.11.2025
- Festanstellung
In einem interdisziplinären Projektteam übernimmst Du den Part der technischen Umsetzung von Datenverarbeitungsstrecken in Batch und Realtime. Als Experte für das Data Engineering bist Du im Projekt Ansprechpartner für Kollegen und Kunden. Mit modernen cloud-basierten Technologien generierst Du - KI-unterstützt - innovative Lösungen rund um unsere Produkte.
Wir suchen Dich mit und ohne Berufserfahrung, als (Junior) Data Engineer (all genders) für unsere Standorte in Karlsruhe, Stuttgart, Hamburg, München oder Köln.
- Azure SQL Database, Azure Cosmos DB und Datalake Storage
- Weitere Komponenten aus dem Azure Stack wie Log Analytics, KeyVault, API Management
- Azure Portal
- Unternehmenseigener OpenAI-basierter KI-Assistent
- Projektverwaltung in JIRA und Confluence
- Entwicklung von Azure Functions in .NET C# zur Abbildung von Datentransformationen in Realtime. REST API
- Erstellung und Pflege von Azure Data Factory Pipelines zur Automatisierung von Datentransfers.
- Entwicklung von Azure Databricks Notebooks, insbesondere zur Implementierung von ETL-Prozessen mit PySpark – dabei sind erste Programmierkenntnisse und ein gutes Verständnis für Datenverarbeitung gefragt.
- Arbeiten mit SQL, inklusive der Durchführung von Qualitätssicherungen, Datenanalysen und gezielten Performanceoptimierungen auf Speichertechnologien wie Cosmos DB, Azure SQL DB und Data Lake Storage
- Optimierung und Feintuning der Prozesse durch Detailanalysen u. a. mit Log Analytics
- Erste Kenntnisse Programmierkenntnisse (idealerweise in C#, Python und Pyspark).
- SQL-Kenntnisse zur Datenanalyse und Qualitätssicherung
- Verständnis für Cloud-Architekturen und Datenverarbeitungsprozesse
- Interesse an konzeptionellen Themen rund um Datenmodellierung und ETL-Design
- Bereitschaft zur Weiterentwicklung in Technologien wie Databricks und Data Factory
Bei DYMATRIX entwickeln wir mit Leidenschaft innovative Softwarelösungen für datengetriebene, KI-gestützte Customer Experiences. Unsere SaaS-Plattform ermöglicht es Unternehmen, ihre Kontakte automatisiert und personalisiert über alle Kanäle hinweg anzusprechen. Doch wir liefern nicht nur die Technologie – unsere Expert:innen begleiten Kunden von Strategie und Implementierung bis hin zum laufenden Betrieb. Über 200 namhafte Unternehmen aus der DACH-Region, vom Mittelstand bis zum DAX-Konzern, aus Branchen wie Handel, Medien, Banken und Versicherungen vertrauen auf uns. Damit das gelingt, brauchen wir ein starkes Team – wir brauchen Dich!