Lassen Sie uns über den Job sprechen
Bei uns finden Sie spannende Projekte
Passt das zu Ihnen?
AFRA-5283 - AWS Cloud Architekt (m/w/d) (DE)
[8129]
Projekt-/Aufgabenbeschreibung: • Beratung des Auftraggebers zur technischen Architektur(-strategie) im Bereich Data Lake, Big Data und Analystics sowie deren Weiterentwicklung und Aufzeigen von Verbesserungsmöglichkeiten der bestehenden technischen Architektur • Coaching und Training des Entwicklerteams • Aufwandsschätzung für die technische Lösung im Projekt • Durchführen der Reviews von Design, Code und Tests • Teilnahme an agilen projektspezifischen Events wie Dailies, Refinements, Retrospektiven, Reviews • Programmierung, Implementierung, Customizing und Betrieb technischer auf Basis der genutzten Technologien inkl. dazugehöriger Schnittstellen, Module und entsprechender Datenbanken unter Einhaltung der Standards des Auftraggebers (z.B. Nutzung der standardisierten Entwicklungsumgebungen und Programmierrichtlinien) • Erarbeitung von Konzepten zur Datenintegration mit Nutzung von Apache Spark/Scala auf Basis von AWS-Technologien • Beheben von Fehlern aus den Testphasen in den Applikationen / Komponenten • Dokumentation der technischen Komponenten • Erstellen von Lieferpaketen für die betreffenden Applikationen Anforderungen – must have: • AWS-Clouderfahrung (mind. 3 Jahre) • Kenntnisse in der Umsetzung von ETL-Strecken mittels SQL (mind. 6 Jahre) • Erfahrung mit Spark und Scala (mind. 5 Jahre) • Erfahrung im Energiesektor, Logistik und Verkehr (mind. 3 Jahre) • Erfahrung mit relationalen Datenbanken (Redshift, Postgres)
• Coaching und Training des Entwicklerteams
• Aufwandsschätzung für die technische Lösung im Projekt
• Durchführen der Reviews von Design, Code und Tests
• Teilnahme an agilen projektspezifischen Events wie Dailies, Refinements, Retrospektiven, Reviews
• Programmierung, Implementierung, Customizing und Betrieb technischer auf Basis der genutzten Technologien inkl. dazugehöriger Schnittstellen, Module und entsprechender Datenbanken unter Einhaltung der Standards des Auftraggebers (z.B. Nutzung der standardisierten Entwicklungsumgebungen und Programmierrichtlinien)
• Erarbeitung von Konzepten zur Datenintegration mit Nutzung von Apache Spark/Scala auf Basis von AWS-Technologien
• Beheben von Fehlern aus den Testphasen in den Applikationen / Komponenten
• Dokumentation der technischen Komponenten
• Erstellen von Lieferpaketen für die betreffenden Applikationen
• Kenntnisse in der Umsetzung von ETL-Strecken mittels SQL (mind. 6 Jahre)
• Erfahrung mit Spark und Scala (mind. 5 Jahre)
• Erfahrung im Energiesektor, Logistik und Verkehr (mind. 3 Jahre)
• Erfahrung mit relationalen Datenbanken (Redshift, Postgres)
