Let's talk about the job

We offer exciting jobs for different areas. We are active in the areas of permanent employment, freelance projects and temporary work. Simply upload your profile and we will contact you immediately. If there is no suitable job for you, we would be pleased to receive your unsolicited application.

Find the job you like!
search
reorder
keyboard_arrow_leftBack
Is this a good fit for you?

#3417 DevOps Berater - Admin im Bereich Railmate – REMOTE – (m/w/d) (DE)

[7147]

Projektbeschreibung Die Leistungen werden für die Projekte Datendrehscheibe, Analyseanwendungen Marketing und Railmate erbracht werden. Durch dieses soll durch die höhere Transparenz eine schnellere Erkennung und schneller Abstellung von Missständen bei der Leistungserbringung ermöglicht und neue Erkenntnisse zu Kundenbedürfnissen gewonnen werden. Zur Verarbeitung von verschiedensten Datentöpfen (Kundenfeedback, Telefonie, Auslastung, Besetzung, etc.) wurde ein Machine Learning Cluster sowie eine Amazon Cloud-basierte Architektur zur Verarbeitung großer Datenmengen entwickelt. Im Rahmen des Projektes sollen bestehende Prozesse in eine „cloud-ready“ Infrastruktur auf Basis von Apache Kafka, Apache Spark und Apache NiFi portiert werden. In diesem Zusammenhang soll der Betrieb der bestehenden Infrastruktur sichergestellt werden. Weiterhin sollen effiziente CI/CD Pipelines für die bestehende Infrastruktur entwickelt werden, um notwendige Releases schnell und qualitätsgesichert in den jeweiligen Umgebungen bereitstellen zu können.   Die Leistungserbringung erfolgt überwiegend im Rahmen agiler Vorgehensmodelle (z.B. SCRUM). In diesem Fall sind die dort spezifischen Prozesse zu berücksichtigen und es ist ein regelmäßiger Austausch mit dem Team erforderlich. Entsprechend dem im agilen Team gegebenen Vorgehen sind regelmäßige Abstimmungen notwendig, die Aufgaben-Verteilungsprozesse (z.B. Pull von Tasks gemäß Kompetenz und in Abstimmung mit dem Team) durchzuführen und die entsprechenden fachlichen Kommunikationsinstrumente (z.B. JIRA) zu bedienen.   Aufgabenbeschreibung: ·Aufbau und Betrieb von Container-Infrastruktur Docker/Kubernetes ·Aufbau und Betrieb von CI/CD Pipelines auf Basis von GitLab ·Durchführen der Administration und technischen Betriebsführung der IT-Landschaft einer Client/Serverarchitektur auf Windows -Basis bestehend aus: oProduktions- und Entwicklungsservern (Windows Server 2019) oHyper-V-Hosts mit mehreren Gastsystemen oHadoop Cluster oDocker Container oDatenbanken (Oracle und MS-SQL-Server) unter Windows und Linux ·Windows 10 Arbeitsstationen Durchführen der Regeltätigkeiten zur Administration und technischen Betriebsführung mit den Schwerpunkten oEntwicklung und Umsetzung von Maßnahmen zur Aufrechterhaltung der Datensicherheit (Archivierung; Backup- und Recoverystrategien) von Daten und Anwendungen in komplexen verteilten Systemen oÜberwachung der Verfügbarkeit und Einsatzbereitschaft aller zentralen Systeme, Störungserkennung, Problemidentifikation und –beseitigung oEntwicklung und Umsetzung von Maßnahmen zur Sicherstellung der IT-Sicherheit (Daten, Netzwerk, etc.) entsprechend den aktuellen Vorgaben und Richtlinien oUnterstützen bei der Planung, Konfiguration und Beschaffung von Hardwarekomponenten zur Systemerweiterung und -erneuerung zur Aufrechterhaltung bzw. Steigerung der Leistungsfähigkeit, Verfügbarkeit der IT-Landschaft und Reduktion des Betriebsaufwandes oDurchführen von Systemtest zur Weiterentwicklung der Software- und Systembasis der existierenden Verfahren und Anwendungen oDurchführen des Aufbaus und der Einrichtung neuer Systemumgebungen in laufenden IT-Entwicklungsprojekten zur Erweiterung der Planungs- und Monitoringsysteme oDokumentation der Vorgänge und der umzusetzenden Architektur oPräsentation der Architektur an die Entwicklerteams sowie bis auf Managementebene*   Anforderungen – must have: ·Mindestens 2 Jahre nachweisebare Projekterfahrung im Betrieb von Hadoop Umgebungen (Cloudera, Hortonworks oder analog) ·Mindestens 3 Jahre nachweisebare Projekterfahrung in der Windows Serveradministration, ink. Backup/Recovery mit BackupExec, Netzwerkkonfiguration. ·Mindestens 3 Jahre nachweisebare Projekterfahrung im Betrieb von Datenbanken z.B. Oracle, MS SQL und Webanwendungen Apache Tomcat, Jakarta, LAMP, BusinessObjects. ·Mindestens 2 Jahre nachweisebare Projekterfahrung im Betrieb von Container-Infrastrukturen wie Docker und Kubernetes.   Anforderungen – should + nice to have: ·Erfahrung im Bereich Amazon AWS oder Microsoft Azure Cloud, insb. in den Gebieten Amazon EMR und Amazon ECS ·Erfahrung mit Microsoft SQL Server ·Erfahrung mit Apache SolR und Hadoop Stack ·Erfahrung in agiler Softwareentwicklung

Projektbeschreibung

Die Leistungen werden für die Projekte Datendrehscheibe, Analyseanwendungen Marketing und Railmate erbracht werden. Durch dieses soll durch die höhere Transparenz eine schnellere Erkennung und schneller Abstellung von Missständen bei der Leistungserbringung ermöglicht und neue Erkenntnisse zu Kundenbedürfnissen gewonnen werden.

Zur Verarbeitung von verschiedensten Datentöpfen (Kundenfeedback, Telefonie, Auslastung, Besetzung, etc.) wurde ein Machine Learning Cluster sowie eine Amazon Cloud-basierte Architektur zur Verarbeitung großer Datenmengen entwickelt.

Im Rahmen des Projektes sollen bestehende Prozesse in eine „cloud-ready“ Infrastruktur auf Basis von Apache Kafka, Apache Spark und Apache NiFi portiert werden. In diesem Zusammenhang soll der Betrieb der bestehenden Infrastruktur sichergestellt werden. Weiterhin sollen effiziente CI/CD Pipelines für die bestehende Infrastruktur entwickelt werden, um notwendige Releases schnell und qualitätsgesichert in den jeweiligen Umgebungen bereitstellen zu können.

 

Die Leistungserbringung erfolgt überwiegend im Rahmen agiler Vorgehensmodelle (z.B. SCRUM). In diesem Fall sind die dort spezifischen Prozesse zu berücksichtigen und es ist ein regelmäßiger Austausch mit dem Team erforderlich. Entsprechend dem im agilen Team gegebenen Vorgehen sind regelmäßige Abstimmungen notwendig, die Aufgaben-Verteilungsprozesse (z.B. Pull von Tasks gemäß Kompetenz und in Abstimmung mit dem Team) durchzuführen und die entsprechenden fachlichen Kommunikationsinstrumente (z.B. JIRA) zu bedienen.

 

Aufgabenbeschreibung:

  • Aufbau und Betrieb von Container-Infrastruktur Docker/Kubernetes
  • Aufbau und Betrieb von CI/CD Pipelines auf Basis von GitLab
  • Durchführen der Administration und technischen Betriebsführung der IT-Landschaft einer Client/Serverarchitektur auf Windows -Basis bestehend aus:
    • Produktions- und Entwicklungsservern (Windows Server 2019)
    • Hyper-V-Hosts mit mehreren Gastsystemen
    • Hadoop Cluster
    • Docker Container
    • Datenbanken (Oracle und MS-SQL-Server) unter Windows und Linux
  • Windows 10 Arbeitsstationen Durchführen der Regeltätigkeiten zur Administration und technischen Betriebsführung mit den Schwerpunkten
    • Entwicklung und Umsetzung von Maßnahmen zur Aufrechterhaltung der Datensicherheit (Archivierung; Backup- und Recoverystrategien) von Daten und Anwendungen in komplexen verteilten Systemen
    • Überwachung der Verfügbarkeit und Einsatzbereitschaft aller zentralen Systeme, Störungserkennung, Problemidentifikation und –beseitigung
    • Entwicklung und Umsetzung von Maßnahmen zur Sicherstellung der IT-Sicherheit (Daten, Netzwerk, etc.) entsprechend den aktuellen Vorgaben und Richtlinien
    • Unterstützen bei der Planung, Konfiguration und Beschaffung von Hardwarekomponenten zur Systemerweiterung und -erneuerung zur Aufrechterhaltung bzw. Steigerung der Leistungsfähigkeit, Verfügbarkeit der IT-Landschaft und Reduktion des Betriebsaufwandes
    • Durchführen von Systemtest zur Weiterentwicklung der Software- und Systembasis der existierenden Verfahren und Anwendungen
    • Durchführen des Aufbaus und der Einrichtung neuer Systemumgebungen in laufenden IT-Entwicklungsprojekten zur Erweiterung der Planungs- und Monitoringsysteme
    • Dokumentation der Vorgänge und der umzusetzenden Architektur
    • Präsentation der Architektur an die Entwicklerteams sowie bis auf Managementebene*

 

Anforderungen – must have:

  • Mindestens 2 Jahre nachweisebare Projekterfahrung im Betrieb von Hadoop Umgebungen (Cloudera, Hortonworks oder analog)
  • Mindestens 3 Jahre nachweisebare Projekterfahrung in der Windows Serveradministration, ink. Backup/Recovery mit BackupExec, Netzwerkkonfiguration.
  • Mindestens 3 Jahre nachweisebare Projekterfahrung im Betrieb von Datenbanken z.B. Oracle, MS SQL und Webanwendungen Apache Tomcat, Jakarta, LAMP, BusinessObjects.
  • Mindestens 2 Jahre nachweisebare Projekterfahrung im Betrieb von Container-Infrastrukturen wie Docker und Kubernetes.

 

Anforderungen – should + nice to have:

  • Erfahrung im Bereich Amazon AWS oder Microsoft Azure Cloud, insb. in den Gebieten Amazon EMR und Amazon ECS
  • Erfahrung mit Microsoft SQL Server
  • Erfahrung mit Apache SolR und Hadoop Stack
  • Erfahrung in agiler Softwareentwicklung
 

map Remote date_range 01.11.2021 update Freelance
Direct contact

Raquel Munoz

Subcontractor Managerin
mail raquel.munoz@ausy-technologies.de
phone (0 69) 7 07 98 39-516


No suitable job? Send us a message!

No suitable job for you? No problem! Just send us your name, your e-mail address and a short description of your desired job. We will get back to you immediately with matching positions!