Tech Lead | Cloud Solutions Architect | DevOps & Platform Engineering
- Verfügbarkeit einsehen
- 0 Referenzen
- 100‐120€/Stunde
- 97483 Eltmann
- auf Anfrage
- de | it | en
- 23.11.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
6/2024 – 12/2024
Tätigkeitsbeschreibung
Ziel:
● Weiterentwicklung und Optimierung von Public- und Private Cloud Umgebungen auf
Basis von OpenShift für Kunden im öffentlichen Sektor und im Bankwesen, um
Skalierbarkeit, Sicherheit und Effizienz auf höchstem Niveau zu gewährleisten.
Tätigkeiten:
● Fortführung und Verbesserung der Plattform-Automatisierungen mittels
Infrastructure as Code (IaC) und effizienten Gitlab CI/CD-Pipelines sowie Ansible,
um Effizienzsteigerungen zu realisieren und manuelle Prozesse zu minimieren.
● Erweiterung und Feinabstimmung der OpenShift Cluster, um Hochverfügbarkeit,
maximale Performance und robuste Sicherheit zu gewährleisten, unter Anwendung
von DevOps Best Practices und modernsten BSI Sicherheitsstandards.
● Durchführung von Trainings, Workshops und Coaching für interne T eams, um den
Wissensaustausch zu fördern und die Kompetenzen im Umgang mit
Cloud-T echnologien, Container-Orchestrierung und OpenShift zu vertiefen.
● Entwicklung von intelligenten Automatisierungen für die Versionierung von
Anwendungen, um nahtlose Deployments und Rollbacks zu ermöglichen, durch
Implementierung von GitOps-Prinzipien und Continuous Deployment Strategien.
● Entwicklung einer leistungsstarken Python Applikation zur automatischen
Synchronisation von Mandantendaten, um eine reibungslose Integration mit Red Hat
Advanced Cluster Security zu ermöglichen und unternehmensweite
Sicherheitsrichtlinien konsistent anzuwenden.
● Implementierung und fortlaufende Weiterentwicklung eines umfassenden
Observability Stacks auf Basis von OpenTelemetry und Dynatrace, inklusive der
Erstellung von maßgeschneiderten Dashboards und Alerts für proaktive
Systemüberwachung und Fehlerbehebung.
● Konzeption und Implementierung eines umfassenden Update- und
Patch-Prozesses für OpenShift Cluster und interne Plattformkomponenten, um
höchste Sicherheitsstandards und Compliance-Anforderungen zu erfüllen,
einschließlich der Automatisierung von T est- und Deployment-Schritten.
Technologien:
OpenShift, Kubernetes, Red Hat Advanced Cluster Security, OpenT elemetry, Dynatrace,
Python, Git, GitOps, CI/CD-Pipelines, Infrastructure as Code (IaC), DevOps, Continuous
Deployment, Azure, Ansible, Prometheus, Grafana, Docker, Linux, Agile Methodologien,
ArgoCD, VMWare
Continuous Delivery, Continuous Integration, DevOps, Incident-Management, Python-Programmierer, Agile Methodologie, Scrum, Server-Monitoring, Docker, Git, VMware vCenter, Red Hat Enterprise Linux (RHEL), Microsoft Azure, Kubernetes, Openshift, Change Management
6/2023 – 10/2024
Tätigkeitsbeschreibung
Ziel:
● Konzeption und Entwicklung einer Plattform zum Betreiben eines Webshops
auf Basis von Kubernetes in Kombination mit einem Multi-Cloud Ansatz.
Tätigkeiten:
● Design und Konzeption der Ziel-Architektur auf Basis von Kubernetes auf
der Hetzner Cloud sowie auf der Plusserver Kubernetes Engine.
● Planung und Leitung des Projektes im Hinblick auf folgende Punkte:
Ressourcen, Budget, Dienstleistermanagement, Architektur.
● Aufbau des Bereiches Platform & DevOps mit den Schwerpunkten
Automation, Infrastructure as Code, GitOps, Cloud Services, Stability.
● Leitung der Mitarbeiter des Bereiches Platform & DevOps (10+ Mitarbeiter)
● Entwicklung von Dockerfiles zur Containerisierung von Java Spring Boot
und Python Flask Applikationen.
● Aufbau von Gitlab CI/CD Pipelines zum automatischen T esten und Erstellen
von Container Images für sämtliche Applikationen (Self Contained
Systems) des Webshops auf Basis von Java Spring Boot & Gradle.
● Entwicklung der gesamten Terraform Automation zur Provisionierung und
Initialisierung aller Infrastrukturkomponenten (Kubernetes, ArgoCD, etc.)
● Design und Aufbau von automatisierten Deployments und auf Basis von
ArgoCD
● Entwicklung von Helm-Charts für das Deployment der Webshop
Applikationen und der Platform Services (Kafka, Solr, Cert-Manager, Nginx)
● Aufbau eines Monitoring Stacks auf Basis von Prometheus und Grafana.
Verbindung aller Setups zur Überwachung inklusive Alerting über
Pagerduty.
● Aufbau eines Logging Stacks auf Basis von Opensearch & Fluentbit
● Konzeption und Einrichtung der automatisierten Synchronisation von
sensiblen Inhalten (System-Credentials, Zertifikate, Passwörter, etc.) mit Hilfe
einer Hashicorp Secrets Vault.
● Einrichtung von Google Cloud Buckets zur externen Verwahrung und
Verteilung von sensiblen Konfigurationsdateien.
● Aufbau und einrichtung eines IAM Systems auf Basis von Keycloak für die
Sichere Authentifizierung an kritischen Systemen mit Hilfe von Role Based
Access Control (RBAC).
● Entwicklung einer Backup Strategie mit Hilfe von Ansible auf Basis von
Minio & Restic auf dedizierten Hetzner Bare Metal Servern.
Technologien
Java, Java Spring Boot, Gitlab, Gitlab CI/CD, Gitlab Container Registry, T erraform, GCP ,
Google Cloud Bucket, Docker, Dockerfile, Prometheus, Grafana, Opensearch, Fluentbit,
Kubernetes, PSKE, Kafka, Solr, Cert-Manager, Nginx, Java, Spring Boot, Gradle, Python,
Flask, ArgoCD, Helm, Hashicorp Secrets Vault, Keycloak
Teamleiter IT, Team Building, Apache Kafka, Apache Solr, Continuous Delivery, Continuous Integration, Docker, Git, Google Cloud, Java-Entwickler, Kubernetes, Nginx, Python, Server-Monitoring
3/2023 – 6/2023
Tätigkeitsbeschreibung
Ziel:
● Konzeption und Entwicklung von Services und Infrastrukturkomponenten
innerhalb einer Private Cloud im öffentlichen Sektor.
Tätigkeiten:
● Entwicklung einer Gitlab CI/CD Pipeline zur automatisierten Provisionierung
von virtuellen Maschinen für Mitarbeiter der Softwareentwicklung mit Hilfe von
Ansible, Bash Scripting und Powershell.
● Design und Entwicklung einer Python FastAPI REST-API zur Erstellung und
zum Update von DNS-Zonendateien mit eingebauter Schnittstelle zur
Authentifizierung (OAuth).
● Schreiben eines Dockerfiles zur Containerisierung der Python FastAPI
REST-API Applikation zur Standardisierung des Deployments als Docker
Container.
● Automatisierung des Deployment Prozesses der Python FastAPI REST API
als Docker Container über eine Gitlab CI/CD Pipeline mit Hilfe von Puppet.
● Konzeption von Netzwerktopologien zum Design von angebotenen Services
auf Kundenplattformen in der Private-Cloud (VMWare)
● Entwicklung einer Automation zum Aufsetzen und Updaten mehrerer
Internet-Proxies auf Basis von Squid zur Anbindung von virtuellen Maschinen
auf Basis von VMWare mit Services außerhalb der Private Cloud.
Technologien
Python, FastApi, OAuth, Gitlab CI/CD, Ansible, Puppet, Bash Scripting, Powershell, RedHat
Enterprise Linux, Windows Server, Docker, Dockerfile, Container, Puppet, VMWare
Container Management, API-Entwickler, Bash Shell, Docker, Git, Python, Windows Powershell, VMware vCenter, Red Hat Enterprise Linux (RHEL), Windows Server (allg.), Ansible, Puppet
1/2023 – 6/2023
Tätigkeitsbeschreibung
Ziel:
● Konzeption und Entwicklung einer Web Applikation zum Erstellen und
Betreiben einer Plattform für die Produktvermietung auf Basis von AWS.
Tätigkeiten:
● Entwicklung des Backends der Applikation mit Hilfe von Java Spring Boot.
● Entwicklung aller Spring Boot Backend-Strukturen nach Best Practices in
Bezug auf Datensicherheit (Entity > DTO > Service ).
● Erstellung eines Security Konzepts für die Applikation (Password
Encryption, Authentication Interfaces, Database Backups).
● Erarbeitung von Unit-Tests zur Überprfüng der wichtigsten Modulen während
des Builds des Docker Containers des Backends.
● Erstellung einer Amazon RDS for MySQL Datenbank zur Anbindung des
Applikation-Backends und zur Verwaltung von Applikationsdaten.
● Design, Entwicklung und Anpassung des Frontends der Applikation mit Hilfe
von Next.js.
● Entwicklung von UI-Tests des Frontends mit Hilfe von Selenium.
● Erstellung und Verwaltung eines Amazon S3 Buckets zur Speicherung von
Produktbildern beim Erstellen der Angebote durch User.
● Containerisierung des Front- und Backends mit Hilfe von Dockerfiles.
● Erstellung einer Amazon Elastic Container Registry (Amazon ECR) zur
Verwaltung von Container Images.
● Erstellung eines AWS Managed Kubernetes Service – Amazon EKS zum
Betreiben der Plattform
● Entwicklung einer Automatisierung mit Hilfe von Terraform zum Aufsetzen
aller notwendigen Infrastruktur Komponenten wie Amazon Elastic Container
Registry (Amazon ECR), AWS Managed Kubernetes Service – Amazon
EKS, Amazon VPC, Amazon S3 Bucket.
● Aufbau von mehreren Github Actions Workflows zum Aufbau aller
Container Images mit Hilfe von Docker (Build Pipelines) die automatisch
auf die Amazon Elastic Container Registry (Amazon ECR) gepusht
werden mit Hilfe von Ansible und Bash Scripting.
● Aufbau von Github Actions Workflows zur automatischen Versionierung der
Applikationskomponenten und zum Aufsetzen der Applikation auf dem AWS
Managed Kubernetes Service – Amazon EKS Cluster (Release &
Deployment Pipelines) mit Hilfe von Ansible und Bash Scripting.
Technologien
Java, Java Spring Boot, Github, Github Actions, Terraform, AWS, Amazon S3 Buckets,
Amazon Elastic Container Registry (Amazon ECR), AWS Managed Kubernetes Service –
Amazon EKS, Amazon VPC, Ansible, Bash Scripting, Powershell, Docker, Dockerfile
Continuous Delivery, Continuous Integration, Java-Entwickler, Release-Management, Bash Shell, Docker, Git, Spring Framework, Windows Powershell, Ansible, Amazon Web Services (AWS), React (JavaScript library)
11/2022 – 3/2023
Tätigkeitsbeschreibung
Ziel:
● Entwicklung und Implementierung einer Microsoft Azure
Entwicklungsplattform mit einer Schnittstelle zur Erfassung und Auswertung
von Kundendaten.
Tätigkeiten:
● Design und Implementierung einer Python REST API (Flask) für die
Verarbeitung von bestehenden und neuen Datenmengen.
● Schreiben der Python Module zum Data-Fetching aus einer PostgreSQL
Datenbank.
● Schreiben eines Dockerfiles zur Containerisierung der Python Applikation
zur Standardisierung des Deployments als Docker Container.
● Lokales Deployment des initialen Docker Containers zu Zwecken von
Applikationstests durch Insomnia (HTTP Requests)
● Automatisierte Erstellung und State-Saving eines Azure DevOps
Repositories und einer Azure Container Registry als Infrastructure as
Code (IaC) mit Hilfe von Terraform.
● Automatisierung des Image Build und des Deployment Prozesses der
Python Flask REST API als Docker Container über eine Azure DevOps
Pipeline mit einer Azure Container Instance als Ziel.
● Entwicklung einer Terraform Automation zur Erstellung eines Secret Stores
auf Basis Azure Key Vault zur Verwaltung von Authentifizierung.
● Erstellung und Konfiguration eines Kubernetes Clusters über den Azure
Kubernetes Service (AKS).
● Migration der Docker Workloads auf den Azure Kubernetes Service (AKS)
Cluster mit Hilfe eines Kubernetes Helm Charts ausgelöst durch eine
Azure DevOps Pipeline.
● Aufbau einer Monitoring Lösung durch Nutzung und Implementierung von
Prometheus.
Technologien
Azure DevOps, Azure Key Vault, Kubernetes, Helm, T erraform, Ansible, Docker, Python,
MySQL, REST-API mit Flask, Prometheus
Mysql, DevOps, API-Entwickler, Server-Monitoring, Docker, Python, Ansible, Microsoft Azure, Kubernetes
1/2022 – 10/2022
Tätigkeitsbeschreibung
Ziel:
● Entwicklung eines Azure CI/CD T ools zur automatisierten Ausführung von
manuellen Vorbereitungen und Prozessen vor den Patchdays von
produktiven OpenShift Kundencluster zur Zeitersparnis und
Fehlerminimierung.
Tätigkeiten:
● Design der Struktur und Implementation der Azure Pipeline in Bezug auf
Stages, in denen Jobs und Steps in Docker Container ausgeführt werden.
● Mitarbeit in einem übergeordneten T eam nach Scrum
● Weiterentwicklung des ausgewählten Docker Base Images zur Nutzung
verschiedener T ools
● Entwurf und Entwicklung von Azure Functions in Python zum Ausführen
von Automationsteps.
● Strukturierung der Ansible Basiskonfiguration und der Struktur aller
Skriptdateien.
● Entwicklung der automatischen Erstellung einer Dokumentationsseite in
Ansible für den jeweiligen Patch Monat im Media-Wiki mit Hilfe von Jinja2
Templates.
● Entwicklung einer Python Applikation, die durch das automatisierte Triggern
einer Azure Pipeline zum automatischen Pull, Update und Commit + Push
der Daten von Kunden-Clustern. Automatisiertes Update des Azure DevOps
Repositorys.
● Entwicklung von Jinja2 Templates und Ansible Automatisierungen zum
Senden von allen relevanten Mails zum Start/Status/Ende des Patchdays für
die Kundenkontakte des jeweiligen Clusters.
● Dynamisiertes Einfügen aller Kunden- und Cluster-Informationen basierend
auf Kundendaten in der zentralen Configuration Management Database
(CMDB, SQL) gesteuert durch Python Skripte innerhalb von getrennten
Stages in Azure Pipelines.
● Administration von Red Hat Enterprise Linux (RHEL) Servern als Red Hat
Certified System Administrator (RHCSA)
● Automation der Administration von Red Hat Enterprise Linux (RHEL)
Servern als Red Hat Certified Engineer (RHE)
● Administration von Red Hat OpenShift Container Platform (RHOCP)
Cluster als Red Hat Certified specialist in OpenShift Administration
● Entwicklung und Administration von Containerisierten Applikationen auf Red
Hat OpenShift Container Platform (RHOCP) Cluster als Red Hat Certified
specialist in Containers and Kubernetes
Technologien
Azure Pipelines, Azure DevOps, GIT , Kubernetes, OpenShift, Python, Ansible, Docker,
DockerHub Harbor Image Registry, Flask, HTTP-Requests, Jinja2, Bash Scripting, SQL,
Scrum
Ansible, Bash Shell, DevOps, Docker, Git, Hypertext Transfer Protocols (HTTP), Kubernetes, Microsoft Azure, Openshift, Python, Red Hat Enterprise Linux (RHEL), Scrum, SQL
6/2021 – 12/2021
Tätigkeitsbeschreibung
Ziel:
● Entwicklung eines Plugins zur automatisierten Installation und Patching einer
zentralen Argo CD Instanz (Namespace restricted) auf bestehende und neue
OpenShift Cluster
Tätigkeiten:
● Aufteilung und Abarbeitung der Arbeitspakete nach Scrum
● Erstellung einer Azure DevOps Pipeline zum Triggern von Ansible
Automatisierungen innerhalb eines Docker Containers und zum Ausführen
der Installationstasks
● Schreiben einer Ansible Rolle zur automatischen Ausführung der ArgoCD
Installation mit dynamischen Kundendaten als Variablen.
● Schreiben von Kustomize Modulen zur automatischen Vorformatierung von
zentralen Kubernetes Ausgangsressourcen aus dem Argo CD GitHub
Repository sowie anschließende Grundinstallation
● Entwickeln eines T estmoduls mit Ansible zum Abfragen der notwendigen
Installationsschritte auf Basis des States folgender Workloads auf den
Clustern: Certmanager, Keycloak (OpenID Connect/OAuth2.0), Argo CD,
Roles und Rolebindings.
● Erstellung von Jinja2 Templates für das dynamische Ausrollen aller
notwendigen Kubernetes/OpenShift Ressourcen wie Namespaces, Roles,
Role Bindings, ConfigMaps und Secrets
● Schreiben von automatisierten T ests in Ansible zur Steuerung spezifischer
Installations- und/oder Update-T asks
● Automatisierung der Erstellung/Bearbeitung/Entfernung von Kubernetes und
OpenShift Ressourcen im Ziel-Cluster zur Anpassung des
Applikationsverhaltens sowie von Applikationsberechtigungen
● Automatisierte Einbindung des Argo CD Application-Servers in das
bestehende Keycloak des Clusters zur Authentifizierung über Keycloak
SSO.
● Entwurf aller Kubernetes und Argo CD Ressourcen als YAML Files für die
automatisierte T est-Suite des installierten Argo CDs.
● Aufbau der automatisierten T est-Suite im Rahmen der Installation und des
Deployments von T est-Workloads im Argo CD auf Basis von definierten
YAML Files in einem Azure Repository
● Administration von Red Hat OpenShift Container Platform (RHOCP)
Cluster als Red Hat Certified specialist in OpenShift Administration
● Entwicklung und Administration von Containerisierten Applikationen auf Red
Hat OpenShift Container Platform (RHOCP) Cluster als Red Hat Certified
specialist in Containers and Kubernetes
Technologien
Azure Pipelines, GIT , Kubernetes, OpenShift, Python, Ansible, Docker, Harbor Image
Registry, Keycloak, Argo CD, Kustomize, Bash Scripting. OpenID Connect, OAuth2.0
Open Source, Test Automation, Docker, Git, Python, Ansible, Microsoft Azure, Kubernetes, Openshift
2/2021 – 11/2021
Tätigkeitsbeschreibung
Ziel:
● Weiterentwicklung einer automatisierten Gitlab CI/CD Pipeline zur
Installation und Anpassung von neuen und bestehenden OpenShift Cluster.
Tätigkeiten:
● Entwicklung einer Ansible Rolle zum automatischen Dokumentieren von
Clusterspezifischen Daten in der zentralen CMDB (SQL) wie z.B.
Clustername, IPs und Netzbereiche, Node-Größe und Menge, Namespaces,
etc.
● Einteilung der Aufgaben in Sprints nach Scrum zur Fertigstellung der
Aufgabengebiete
● Erstellen eines Ansible Skriptes zur automatischen Überprüfung und
Anpassung folgender OpenShift Ressourcen auf bestehende und neu
installierte Cluster: Namespaces, Templates, Namespace- und Resource
Quotas, Limits, Limit Ranges, OpenShift-Logging, Images, Roles und
Cluster Roles, Role Bindings und Cluster Role Bindings.
● Automatisierte Erstellung einer Harbor Image Registry zum Verwalten von
Images mit Terraform
● Schreiben eines Moduls mit Python und Ansible zur automatischen
Dokumentation der wichtigsten Kunden- und Clusterdaten in der
README.md Datei des zugehörigen Gitlab Repositorys.
● Design eines OpenShift Project-Templates zum automatischen Ausrollen
von vordefinierten Project Ressourcen bei der Erstellung von neuen
Namespaces in OpenShift Cluster.
● Erstellen einer Ansible Automation zum Abfragen und Erstellen/Patchen des
OpenShift Project T emplates zur Verbesserung der Administration der
managed Namespaces.
● Entwicklung der automatisierten Gitlab CI/CD Stages zum triggern aller
Automationen zum Patchen aller Kubernetes/OpenShift Ressourcen.
● Automatisiertes Aufsetzen von Keycloak Instanzen zur Verwaltung von
Kunden Credentials
● Entwicklung und Administration von Containerisierten Applikationen auf Red
Hat OpenShift Container Platform (RHOCP) Cluster als Red Hat Certified
specialist in Containers and Kubernetes
Technologien
Gitlab CI/CD, GIT , Kubernetes, OpenShift, T erraform, Python, Ansible, Docker, NetApp
Storage, Trident, Keycloak, Scrum,RedHat,
SQL, Continuous Delivery, Continuous Integration, DevOps, Python, Red Hat Enterprise Linux (RHEL), Systemadministrator, Ansible, Kubernetes, Openshift
4/2020 – 1/2021
Tätigkeitsbeschreibung
Ziel:
● Entwicklung und Deployment einer containerisierten REST API mit Hilfe von
Python Flask für den Empfang, Bearbeitung und Weiterleitung von kritischen
Daten von RedHat Enterprise Linux Servern zu Zwecken der
Administration.
Tätigkeiten
● Design und Strukturierung des Daten-T emplates als YAML File zur
Agglomerierung der wichtigsten Clusterdaten.
● Schreiben eines Python Moduls zum Pull, Commit und Push von Git
Repositorys.
● Erstellen eines Daten Parsers von JSON nach YAML in Python der multiple
Datenströme miteinander verheiratet
● Konfiguration und Implementierung der Logik zur Authentifizierung in
Python mit Hilfe von Flask-HTTPAuth
● Entwicklung und Containerisierung einer Python Applikation die über die
Command Line Schnittstelle kritische Daten des jeweiligen RedHat Servern
über einen CronJob als POST Request an die Flask REST API schickt die
auf einem Kubernetes management Cluster als Container bereitgestellt
wird.
● Aufbau von Helm Charts und Github Actions Workflows zum
automatischen deployen der Applikationen auf den Ziel-Clustern
● Aufbau von Github Actions Workflows zum automatischen Build und Push
von Container Images der Applikationen in eine Harbor Image Registry bei
Änderungen des Source Codes
● Automatisiertes Deployment der entwickelten und containerisierten
Applikationen und Workloads über Github Actions Workflows und Helm
● Leitung eines T eams aus drei Mitarbeitern als Scrum Master
● Priorisierung der Arbeitspakete in Jira nach Kanban
● Administration von Red Hat Enterprise Linux (RHEL) Servern als Red Hat
Certified System Administrator (RHCSA)
● Automation der Administration von Red Hat Enterprise Linux (RHEL)
Servern
● Entwicklung und Administration von Containerisierten Applikationen auf
Kubernetes Cluster
Technologien
Github, Github Actions, GIT , Kubernetes, Python, Ansible, Docker, Harbor Image Registry,
Flask, HTTP-Requests, Helm, JSON, YAML, Scrum, RedHat Enterprise Linux
API-Entwickler, Scrum, Docker, Git, Python, Red Hat Enterprise Linux (RHEL), Ansible, Json, Kubernetes
8/2019 – 3/2020
Tätigkeitsbeschreibung
Ziel:
● Konzeption und Durchführung des Aufbaus mehrerer managed Kubernetes
Cluster auf Azure Kubernetes Service (AKS) mit den Zielen der
Hochverfügbarkeit und Stabilität für Enterprise Kunden über Azure
DevOps Pipelines .
Tätigkeiten:
● Erstellung von Azure DevOps Repositories für alle Source Code Dateien.
● Aufnahme der Aufträge über ein Kanban Board
● Planung der Aufgaben zur Realisierung der Installationen nach Scrum
● Erstellung von Azure Resource Groups sowie von Azure Container
Registries für die Aufbewahrung von Container Images
● Automatisierung und IaC Definition der Infrastruktur mit Hilfe von Terraform
● Planung und Design der notwendigen Netzwerkarchitektur sowie Einrichten
von kundenspezifischen Netzwerk-Anpassungen durch Azure Virtual
Network (VNET)
● Einpflegen aller Kundenanforderungen in den initialen Konfigurationsdateien
mit Schwerpunkt auf Berechtigungen, Azure Network Security Groups
(NSG), Resource Quotas, Azure Load Balancing (Azure Application
Gateway) und Cluster Zugriffe intern und extern (Azure VPN Gateway)
● Einrichtung und Administration relevanter Kubernetes Ressourcen über
Ansible mit Hilfe des K8S Moduls (Namespaces, Deployments, Network
Policies, Egress/Ingress-IPs, PodDisruptionBudgets, Resource Quotas, Roles
und Rolebindings, Cluster Roles und Cluster Rolebindings, T emplates,
Images, etc.)
● Einrichten von Azure Firewall Rules für den Private/Public Access des
Clusters
● Aufbau und Entwicklung einer Authentifizierungsschnittstelle zum Cluster mit
Hilfe von Azure Key Vault
● Pflegen relevanter Projektdokumente innerhalb des dedizierten Sharepoints
● Übername des 2nd und 3rd Level Supports über ServiceNow
Technologien
Azure DevOps Pipelines, Azure Firewall, Azure Load Balancing, Azure Application Gateway,
Azure VPN Gateway, GIT , Kubernetes, Azure Kubernetes Service (AKS), T erraform, Python,
Ansible, Docker, Ubuntu, Harbor Image Registry, Azure Key Vault, Scrum, Kanban,
Sharepoint, ServiceNow, Oauth2.0, OpenID Connect, User Federation (Azure AD, Keycloak,
etc.)
Cloud Spezialist, Container Management, DevOps, Git, Infrastrukturarchitektur, Load Balancing, Microsoft Azure, Projektadministrator, VPN
7/2019 – 3/2020
Tätigkeitsbeschreibung
Ziel:
● Entwicklung einer Web Applikation zur Erfassung von Maschinendaten eines
Produktionsbereiches in der Medizintechnik
Tätigkeiten:
● Entwicklung eines React Frontends zur Aufnahme von Produktionsdaten von
Mitarbeitern.
● Erstellung einer Java REST API zur Aufnahme von zugesendeten
Produktionsdaten mit Hilfe von Java Spring Boot.
● Schreiben aller notwendigen Java Funktionen und Hooks zum
Daten-Fetching einer bestehenden Maschinen-API
● Design und Entwicklung der Java Module Formatieren der Daten zur
Weiterverarbeitung. Dynamische Berechnung von KPIs sowie
Datenbereinigung, basierend auf Umwelteinflüssen in den
Produktionsbereichen.
● Design und Entwicklung der Java Module zur Extrapolation der Daten zur
Berechnung von Instandhaltungsintervallen der Maschinen
● Übersetzung der Entwickelten Module von Java nach C# zur Verbesserung
der Performance und Wartbarkeit.
● Containerisierung der C# REST API in Docker auf Basis von.NET Core
● Deployment der Front- und Backend Komponenten in Docker Container
über Docker-Compose.
Technologien
Java, Java FX, Java Spring Boot, C#, React, .NET Core, Docker, Docker-Compose
Forschung & Entwicklung, Klinische Arbeiten, Container Management, Java-Entwickler, C#, Docker, Linux Entwicklung, Software engineering / -technik, Spring Framework, React (JavaScript library)
10/2017 – 5/2019
Tätigkeitsbeschreibung
Ziel:
● Entwurf und Entwicklung eines Kubernetes-basierten MVPs für die
Echtzeitanalyse von Fertigungsprozessen bei Automobil-Leiterplatten, um die
Produktionsdurchsatz und Effizienz durch detaillierte Überwachung und
Optimierung von KPIs zu steigern.
Tätigkeiten:
● Konzeption einer verteilten Node.js Applikation auf Kubernetes, um hohe
Verfügbarkeit, Skalierbarkeit und Fehlertoleranz zu gewährleisten.
● Integration von Diensten und Bereitstellungsstrategien zur Unterstützung der
Echtzeit-Datenerfassung und -verarbeitung.
● Führung eines Engineering-T eams in agilen Sprints für die inkrementelle
Entwicklung, das T esten und die Bereitstellung der Plattform Komponenten.
● Entwicklung der Backend-Dienste mit Node.js und Express, orchestriert
durch Kubernetes zur effizienten Verwaltung containerisierter
Mikroservices.
● Einrichtung eines React-basierten Frontends, containerisiert und verwaltet
über Kubernetes zur dynamischen Skalierung entsprechend der
Kundenanforderung.
● Einsatz von MongoDB als containerisierte Datenbankdienstleistung innerhalb
von Kubernetes für persistente Datenspeicherung und schnellen
Datenzugriff.
● Einsatz von Prometheus und Grafana zur detaillierten Überwachung der
Infrastruktur- und Anwendungsmetriken innerhalb der
Kubernetes-Umgebung, mit Echtzeit Warnungen und Dashboards zur
Überwachung der Systemgesundheit und Leistung.
● Verbesserte Sicherheit durch NetworPolicies, Istio-Service-Meshes und
TLS-Verschlüsselung, zusammen mit der Implementierung von
Kubernetes-Best-Practices wie RBAC und Secrets-Management zum
Schutz gegen unbefugten Zugriff.
● Entwicklung einer umfassenden Jenkins CI/CD-Pipeline, integriert mit
Kubernetes für automatisierte T ests, Builds und Bereitstellungen, zusammen
mit rigorosen Einheiten-
, Integrations- und Sicherheitstests zur
Gewährleistung der Plattformzuverlässigkeit und -sicherheit.
● Management der skalierbaren Bereitstellung der Anwendung über
verschiedene Cloud-Plattformen hinweg für hohe Verfügbarkeit und
Redundanz, ergänzt durch detaillierte Schulungen für Benutzer und
IT-Personal zur Maximierung der Systemeffizienz und Fehlerbehebung.
Technologien
Kubernetes, Node.js, Express, React, MongoDB, Docker, Jenkins, Prometheus, Grafana,
Istio, TLS, and various data visualization libraries, Docker, Docker-Compose
Backend, Cloud Computing, Continuous Delivery, Continuous Integration, Datenmodelierung, Kubernetes, Manager IT-Infrastruktur, Node.Js, Server-Monitoring, Software Architecture, Software Design, Software engineering / -technik
Zertifikate
Microsoft Azure
RedHat
RedHat
Microsoft Azure
Microsoft Azure
RedHat
RedHat
Ausbildung
Technische Hochschule Nürnberg
Nürnberg
Technische Hochschule Nürnberg
Nürnberg
Über mich
Betriebs komplexer Software und Cloud Projekte mit einem Fokus auf DevOps und Platform
Engineering.
Erfahren in der Planung sowie der Entwicklung komplexer Softwareprojekte - Schwerpunkt
Backend Entwicklung und verteilte Systeme.
Erfahren in der Planung sowie des Betriebs komplexer Netzwerk- und Infrastrukturprojekte
(Cloud, Multi-Cloud & On-Premise).
Besondere Erfahrung im Bereich Software Engineering und System Design & Architecture -
Schwerpunkt Cloud mit Fokus auf Kubernetes und Automation.
Weitere Kenntnisse
● Azure
● AWS
● GCP
Programmiersprachen:
Backend:
● Python (Flask, Pandas, FastAPI), Java (Spring Boot), GNU Bash, PowerShell
● Insomnia, Postman
Frontend:
● JavaScript (React.js, Next.js), CSS, HTML
Containerization & Infrastructure as Code:
● Kubernetes (Azure Kubernetes Service (AKS),
Google Kubernetes Engine (GKE),
Amazon Elastic Kubernetes Service (EKS), OpenShift Container Platform
(OCP), Helm
● Docker, Docker Compose, Docker Swarm
● Terraform, Ansible, PowerShell DSC
● NGINX, LetsEncrypt, Apache
DevOps:
● ArgoCD, Azure DevOps
● GitLab CI/CD, GitHub Actions, Cloud Build
● Shell Scripts, Linux
● Kubernetes, OpenShift, kubectl, oc, docker-compose
● Prometheus, Kibana, Grafana
Betriebssysteme:
● Linux (Ubuntu, Red Hat Linux (7-9), Debian), Windows, macOS
Data Services & Datenbanken:
● MariaDB, MySQL, Redis, SQL, PostgreSQL, Keycloak
Tools:
● Jira, Confluence, Scrum, Kanban
● Git, GitHub, GitLab
● VisualStudio Code, PyCharm, Intellij IDEA
● ServiceNow, Sharepoint
Persönliche Daten
- Deutsch (Muttersprache)
- Italienisch (Muttersprache)
- Englisch (Fließend)
- Spanisch (Grundkenntnisse)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden