Data Engineer / Data Scientist
- Verfügbarkeit einsehen
- 1 Referenz
- auf Anfrage
- 76227 Durlach
- auf Anfrage
- de | en
- 01.09.2024
Kurzvorstellung
Auszug Referenzen (1)
"A. is a talented developer and data engineer. Our team has benefited greatly from his contributions and it has been a pleasure to work with him."
4/2019 – 12/2022
Tätigkeitsbeschreibung
Das Team, in dem ich gearbeitet habe, generiert täglich Millionen von Bestellentscheidungen als Teil einer vollständig automatisierten und cloudbasierten SaaS-Lösung für große Einzelhandelskunden. Täglich angesetzte Datenpipelines ermöglichen es dem Optimierungsalgorithmus, die neuesten Daten zu berücksichtigen und gleichzeitig Unsicherheiten und Einschränkungen einzubeziehen, um für die Kunden rechtzeitig die besten Entscheidungen zu treffen. Ich habe daran gearbeitet
- ein bestehendes Analysetool mit einem Dask-Cluster zu skalieren,
- einen Flask Service mit einer PostgreSQL-Datenbank inklusive ETL-Pipeline in Azure einzurichten, mit dem über eine REST API kommuniziert werden kann,
- Apache Airflow DAGs zu konfigurieren,
- anspruchsvolle SQL-Abfragen einschließlich CTEs für eine Exasol-Datenbank zu erstellen und anzupassen,
- komplexe Datenstrukturen in eine in Python geschriebene Datenpipeline zu integrieren,
- erforderliche Anpassungen am Partitionierungsmodell für die Parallelisierungslösung vorzunehmen und
- den in C++ geschriebenen Optimierungsalgorithmus zu verbessern und ihn mit neuen Funktionalitäten zu erweitern.
Agile Methodologie, C++, Microsoft Azure, Python, SQL
Qualifikationen
Projekt‐ & Berufserfahrung
4/2019 – 12/2022
Tätigkeitsbeschreibung
Das Team, in dem ich gearbeitet habe, generiert täglich Millionen von Bestellentscheidungen als Teil einer vollständig automatisierten und cloudbasierten SaaS-Lösung für große Einzelhandelskunden. Täglich angesetzte Datenpipelines ermöglichen es dem Optimierungsalgorithmus, die neuesten Daten zu berücksichtigen und gleichzeitig Unsicherheiten und Einschränkungen einzubeziehen, um für die Kunden rechtzeitig die besten Entscheidungen zu treffen. Ich habe daran gearbeitet
- ein bestehendes Analysetool mit einem Dask-Cluster zu skalieren,
- einen Flask Service mit einer PostgreSQL-Datenbank inklusive ETL-Pipeline in Azure einzurichten, mit dem über eine REST API kommuniziert werden kann,
- Apache Airflow DAGs zu konfigurieren,
- anspruchsvolle SQL-Abfragen einschließlich CTEs für eine Exasol-Datenbank zu erstellen und anzupassen,
- komplexe Datenstrukturen in eine in Python geschriebene Datenpipeline zu integrieren,
- erforderliche Anpassungen am Partitionierungsmodell für die Parallelisierungslösung vorzunehmen und
- den in C++ geschriebenen Optimierungsalgorithmus zu verbessern und ihn mit neuen Funktionalitäten zu erweitern.
Agile Methodologie, C++, Microsoft Azure, Python, SQL
10/2016 – 3/2019
Tätigkeitsbeschreibung
Ich war Teil eines Industrieforschungsprojekts an der RWTH Aachen, das das Transportnetzwerk für eines der weltweit führenden Logistikunternehmen optimierte. Meine Arbeit konzentrierte sich auf
- den Aufbau einer Datenpipeline, um die aktuellsten Daten einzubeziehen,
- die Implementierung eines problemspezifischen mathematischen Optimierungsalgorithmus und
- die Visualisierung der Lieferkette in einem Dashboard.
C++, Python, SQL
Zertifikate
Ausbildung
Aachen
Frankfurt am Main
Weitere Kenntnisse
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
- Schweiz
- Vereinigte Staaten von Amerika
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden