DevOps / Cloud Engineer / Data Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 50169 Kerpen, Rheinland
- National
- de | en
- 02.06.2023
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
11/2020 – offen
Tätigkeitsbeschreibung
• Migration eines Data Warehouses und den damit verbundenen ETL-Prozessen in die AWS Cloud mittels Terraform & Terragrunt und Python & Spark
• Optimierung bestehender Prozesse und Modernisierung der genutzten Toolsets
• Administration und Weiterentwicklung der vom Konzern zur Verfügung gestellten Cloud-Umgebung
DevOps
8/2020 – 11/2020
Tätigkeitsbeschreibung
• Implementierung eines Bestandssystems und dazugehöriger Microservcie-Orientierten REST API mittels AWS Lambda & Python
• Implementierung der zum System bzw. der API zugehörigen AWS basierten Infrastruktur mittels Terraform & Terragrunt
DevOps, Python, Amazon Web Services (AWS)
11/2019 – 6/2020
Tätigkeitsbeschreibung
• Implementierung von ETL Jobs mittels Jupyterlab/Python/Pandas/SQLAlchemy, REST/SOAP/SFTP/OAUTH APIs und Oracle/PostgreSQL
• Dockerisierung von ETL Jobs zur Ausführung via AWS Batch mittels Docker und Docker-Compose
• Content Migration von Datenbanken nach AWS RDS mittels Flyway und Bash
• Aufsetzen von benötigter AWS basierter Infrastruktur mittels Terraform
Python, Amazon Web Services (AWS)
8/2019 – 11/2019
Tätigkeitsbeschreibung
• Erweiterung und Wartung bestehender ETL-Pipelines mittels Jupyter/Python/Pandas/SQLAlchemy/Selenium/JQuery, REST/SFTP APIs, Oracle/PostgreSQL und GIT
• Dockerisierung bestehender Anwendungen mittels Docker und Docker-Compose
• Datenhaltung, -analyse und –migration mittels Superset, SQL und der UNIX Bash
• Aufbau und Betrieb der IT-Landschaft in Form von Nginx/Tornado, GitLab, OpenStack, MySQL und Check_MK/Prometheus/Grafana
Data Science, Data Warehousing, ETL, Python
1/2015 – 8/2019
Tätigkeitsbeschreibung
• Implementierung und Betrieb von ETL-Pipelines und Web-Crawlern mittels Jupyter/Python/Pandas/SQLAlchemy, REST/SFTP APIs, Oracle/PostgreSQL
• Datenhaltung und -analyse mittels Superset und SQL
• Training und Betrieb von Vorhersagemodellen mittels Scikit-Learn/Tensorflow/Keras
• Aufbau und Betrieb der IT-Landschaft in Form von Nginx/Tornado, GitLab, OpenStack und Check_MK/Prometheus/Grafana
• Implementierung von AWS Infrastruktur mittels Terraform
Data Science, Data Warehousing, ETL, Python
Ausbildung
Köln
Köln
Kerpen
Weitere Kenntnisse
Cloud Engineering
Data Engineering
Softwareentwicklung
Python
SQL
Cloud
AWS
Terraform
Terragrunt
Big Data
Spark
Pandas
SQLAlchemy
Scikit-Learn
Datenbank
PostgreSQL
MySQL
Oracle
Dynamo DB
CI/CD
GitLab
Bitbucket
IT-Infrastruktur
Airflow
Docker
Linux
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden