Lassen Sie uns über den Job sprechen
Bei uns finden Sie spannende Jobs und Projekte für unterschiedliche Fachgebiete. Wir sind tätig in den Bereichen Festanstellung, freiberufliche Projekte und Zeitarbeit. Laden Sie einfach Ihr Profil hoch und wir melden uns umgehend. Sollte für Sie kein passender Job dabei sein, so freuen wir uns über Ihre Initiativbewerbung.
Passt das zu Ihnen?
Consultant DevOps (m/w/d) Container-Plattform - Bonn, Remote (DE)
[9139]
Aufbau einer Software-Entwicklungsumgebung mit Lifecycle-Management (CI/CD-Pipeline), sowie Aufsetzen und Anpassung eines Security-Datenhaltungssystems, sowie mehrere Security-MonitoringTools zum Teil auf Basis von Open-Source-Software. Zusätzlich Erstellung einer Software- und Betriebsdokumentation. • Aufbau und Administration von Container-Plattformen. Regelmäßige Teilnahme an Scrummeetings zur Abstimmung, Koordination und Dokumentation der Arbeitsergebnisse • Integration und Administration eines Datenhaltungssystems für sicherheitsrelevante Daten nachfolgenden Design-Gesichtspunkten: o Resilienz o Grid-Adaption o Tiering-Klassen • Integration und Administration der im Projekt entwickelter Software, zur Verarbeitung von Datenströmen. Dieser Datenstrom wird durch ein vordiefniertes Regelwerk in Near-Realtime durchmustert. • Durchmusterung in Near-Realtime eines Datenstroms durch ein vordefiniertes Regelwerk in Near-Realtime durchmustert • Integration und Administration mehrerer SIEM-Software-Produkte, die im Rahmen des Projektes entwickelt werden oder in Form eines Proof of Technology betrachtet werden • Entwicklung einer umfassenden Betriebsdokumentation, Systemdokumentation und How-Tos Sprachkenntnisse: • Deutsch Level C1 - Gemeinsamer Europäischer Referenzrahmen (GER) • Englisch Grundkenntnisse (lesend) Erfahrungsanforderungen: 1. Produktkenntnisse und Praxiserfahrung in der Administration von Container-Plattformen 2. Produktkenntnisse von Open-Source-Produkten zur Datenhaltung und -analyse wie Elasticsearch, Open Distro for Elasticsearch, Apache Kafka, Prometheus, Grafana, Apache Spark FluentD, SIE-Monster, Apache Metron etc. 3. Produktkenntnisse von mehreren SIEM-Produkten, wie Microfocus ArchSight, Splunk, IBM QRadar - SAP MM, SD, FI 4. Nachweisbare und praktische Erfahrung in agilen Projekten 5. Praktische Erfahrung in der Arbeit mit einer CI/CD-Pipeline 6. Erfahrung in der Umsetzung von Ansible Installation, Konfiguration, Erstellen von Ansible Rollen, Ansible Inventories und Ansible Playbooks 7. Erfahrung in der Umsetzung einer lokalen Entwicklungsumgebung mit Vagrant 8. Erfahrung in der Konzeption und Umsetzung einer oder mehreren technischen Monitoring Lösungen mit Prometheus und Grafana für die folgenden Komponenten: OpenSearch, Kafka, Spark, auf JAVA basierende Applikationen, auf Python basierende Applikationen, Virtualisierte Nodes, Container basierte Cluster 9. Erfahrung in der Konzeption und Umsetzung eigener Grafana Dashboards (min. 3 Jahre) 10. Kenntnisse in der Methode DevOps / DevSecOps 11. Kenntnisse in der Konzeption und Umsetzung eines auf Open Source basierenden SIEM 12. Kenntnisse in der Erstellung von Helm Charts für Container basierte Plattformen 13. Kenntnisse in der Installation und Administration von Kafka, OpenSearch, Elasticsearch Beats, Elasticsearch Logstash und Apache Spark
Aufbau einer Software-Entwicklungsumgebung mit Lifecycle-Management (CI/CD-Pipeline), sowie Aufsetzen und Anpassung eines Security-Datenhaltungssystems, sowie mehrere Security-MonitoringTools zum Teil auf Basis von Open-Source-Software. Zusätzlich Erstellung einer Software- und Betriebsdokumentation.
• Aufbau und Administration von Container-Plattformen. Regelmäßige Teilnahme an Scrummeetings zur Abstimmung, Koordination und Dokumentation der Arbeitsergebnisse
• Integration und Administration eines Datenhaltungssystems für sicherheitsrelevante Daten nachfolgenden Design-Gesichtspunkten: o Resilienz
o Grid-Adaption
o Tiering-Klassen
• Integration und Administration der im Projekt entwickelter Software, zur Verarbeitung von Datenströmen. Dieser Datenstrom wird durch ein vordiefniertes Regelwerk in Near-Realtime durchmustert.
• Durchmusterung in Near-Realtime eines Datenstroms durch ein vordefiniertes Regelwerk in Near-Realtime durchmustert
• Integration und Administration mehrerer SIEM-Software-Produkte, die im Rahmen des Projektes entwickelt werden oder in Form eines Proof of Technology betrachtet werden
• Entwicklung einer umfassenden Betriebsdokumentation, Systemdokumentation und How-Tos
Sprachkenntnisse:
• Deutsch Level C1 - Gemeinsamer Europäischer Referenzrahmen (GER)
• Englisch Grundkenntnisse (lesend)
Erfahrungsanforderungen:
1. Produktkenntnisse und Praxiserfahrung in der Administration von Container-Plattformen
2. Produktkenntnisse von Open-Source-Produkten zur Datenhaltung und -analyse wie Elasticsearch, Open Distro for Elasticsearch, Apache Kafka, Prometheus, Grafana, Apache Spark FluentD, SIE-Monster, Apache Metron etc.
3. Produktkenntnisse von mehreren SIEM-Produkten, wie Microfocus ArchSight, Splunk, IBM QRadar - SAP MM, SD, FI
4. Nachweisbare und praktische Erfahrung in agilen Projekten
5. Praktische Erfahrung in der Arbeit mit einer CI/CD-Pipeline
6. Erfahrung in der Umsetzung von Ansible Installation, Konfiguration, Erstellen von Ansible Rollen, Ansible Inventories und Ansible Playbooks
7. Erfahrung in der Umsetzung einer lokalen Entwicklungsumgebung mit Vagrant
8. Erfahrung in der Konzeption und Umsetzung einer oder mehreren technischen Monitoring Lösungen mit Prometheus und Grafana für die folgenden Komponenten: OpenSearch, Kafka, Spark, auf JAVA basierende Applikationen, auf Python basierende Applikationen, Virtualisierte Nodes, Container basierte Cluster
9. Erfahrung in der Konzeption und Umsetzung eigener Grafana Dashboards (min. 3 Jahre) 10. Kenntnisse in der Methode DevOps / DevSecOps
11. Kenntnisse in der Konzeption und Umsetzung eines auf Open Source basierenden SIEM
12. Kenntnisse in der Erstellung von Helm Charts für Container basierte Plattformen
13. Kenntnisse in der Installation und Administration von Kafka, OpenSearch, Elasticsearch Beats, Elasticsearch Logstash und Apache Spark