Passt das zu Dir?
Senior Data Engineer (m/w/d) - remote / Gr. Berlin - 10+ Monate - ab März - 60%-100% Auslastung (DE)
[9788]
wir sind auf der Suche nach einem Senior Data Engineer (m/w/d): Aufgaben ·Unterstützung des Next Generation Control Center Ecosystem (MCCS) durch Ablösung monolithischer SCADA-Systeme mittels modularer Services in Kubernetes. ·Entwicklung von Datenpipelines (ETL/ELT) und Schnittstellen zur Datenbereitstellung. ·Datenbankentwicklung und Datenmodellierung (relational, schemalos, Graph). ·DevOps & Deployment nach Infrastructure as Code inkl. CI/CD-Pipelines. ·Integration und Migration von Stammdaten aus Legacy-Systemen. ·Zusammenarbeit mit Architekten, Scrum-Teams und Datenarchitekten. ·Testing, Wartung und kontinuierliche Weiterentwicklung der Lösungen. Must-Have ·Mehrjährige Erfahrung mit Python, SQL und RegEx. ·Erfahrung mit Datenmodellen in der Energiebranche, idealerweise bei Netzbetreibern. ·Kenntnisse im SCADA/EMS-Stammdatenmanagement. ·Praxiserfahrung mit ETL/ELT-Frameworks. ·Deutsch C1, Englisch B2. Nice-to-Have ·Kenntnisse von CIM, CGMES, UCTE. ·Erfahrung mit Kubernetes, Azure, Docker und CI/CD. ·Erfahrung mit Streaming-Technologien (Apache Kafka). ·Umgang mit JSON, XML, CSV und REST APIs. ·Kenntnisse in Code-Qualitäts-Tools (Linting, Formatting, Static Typing). Rahmenbedingungen: ·Start: 01.03. ·Dauer: bis 31.12.26 ·Auslastung: gerne Vollzeit aber auch 3 Tage + möglich ·Ort: remote (90%), vor Ort (10%) Berlin/Neuenhagen ·Sprache: deutsch und englisch
- Unterstützung des Next Generation Control Center Ecosystem (MCCS) durch Ablösung monolithischer SCADA-Systeme mittels modularer Services in Kubernetes.
- Entwicklung von Datenpipelines (ETL/ELT) und Schnittstellen zur Datenbereitstellung.
- Datenbankentwicklung und Datenmodellierung (relational, schemalos, Graph).
- DevOps & Deployment nach Infrastructure as Code inkl. CI/CD-Pipelines.
- Integration und Migration von Stammdaten aus Legacy-Systemen.
- Zusammenarbeit mit Architekten, Scrum-Teams und Datenarchitekten.
- Testing, Wartung und kontinuierliche Weiterentwicklung der Lösungen.
- Mehrjährige Erfahrung mit Python, SQL und RegEx.
- Erfahrung mit Datenmodellen in der Energiebranche, idealerweise bei Netzbetreibern.
- Kenntnisse im SCADA/EMS-Stammdatenmanagement.
- Praxiserfahrung mit ETL/ELT-Frameworks.
- Deutsch C1, Englisch B2.
- Kenntnisse von CIM, CGMES, UCTE.
- Erfahrung mit Kubernetes, Azure, Docker und CI/CD.
- Erfahrung mit Streaming-Technologien (Apache Kafka).
- Umgang mit JSON, XML, CSV und REST APIs.
- Kenntnisse in Code-Qualitäts-Tools (Linting, Formatting, Static Typing).
- Start: 01.03.
- Dauer: bis 31.12.26
- Auslastung: gerne Vollzeit aber auch 3 Tage + möglich
- Ort: remote (90%), vor Ort (10%) Berlin/Neuenhagen
- Sprache: deutsch und englisch