freiberufler Data Engineer auf freelance.de

Data Engineer

zuletzt online vor 8 Tagen
  • 90€/Stunde
  • 10115 Berlin
  • auf Anfrage
  • ar  |  fr  |  de  |  en
  • 18.02.2025

Kurzvorstellung

Data Engineer mit 4 Jahren Erfahrung in der Entwicklung von Datenapplikationen in Azure und On Premises

Qualifikationen

  • Amazon Web Services (AWS)
  • Apache Flink
  • Apache Kafka1 J.
  • Data Engineer1 J.
  • Docker1 J.
  • Git
  • Microsoft Azure2 J.
  • Pandas1 J.
  • Pyspark
  • Python3 J.

Projekt‐ & Berufserfahrung

Data Engineer
Kundenname anonymisiert, Hamburg
9/2023 – 1/2025 (1 Jahr, 5 Monate)
Fertigungsindustrie
Tätigkeitszeitraum

9/2023 – 1/2025

Tätigkeitsbeschreibung

- Entwicklung einer Engine in Python, die Datenquellen liest und Schlüsselinformationen wie Zeilenzahl, 10 häufigste Werte pro Spalte, Spaltentypen und statistische Berechnungen mit Pandas ableitet.
- Entwicklung einer Streamlit UI-Anwendung, die einen konsolidierten Überblick über die Metadaten bietet.
- Integration von Confluent Kafka als Messaging Broker zwischen der Engine und der Streamlit UI App. 
- Automatisierung des manuellen Prozesses (ursprünglich in Excel) zur Pflege und Abfrage von Metadaten über mehrere Systeme hinweg, einschließlich Postgres, DB2, Kafka-Themen und Excel-Tabellen.
- Beschleunigung der Migrationsaktivitäten durch die Bereitstellung konsolidierter Metadaten und Schlüsselinformationen über Tabelleninhalte und Datentypen über alle Datenquellen hinweg.
- Containerisierung beider Anwendungen für den Einsatz von Kubernetes in der Kundenumgebung.

Eingesetzte Qualifikationen

Apache Kafka, Data Engineer, Docker, Pandas, Python

Data Engineer
Kundenname anonymisiert, Bremen
5/2023 – 8/2023 (4 Monate)
Maschinen-, Geräte- und Komponentenbau
Tätigkeitszeitraum

5/2023 – 8/2023

Tätigkeitsbeschreibung

- Implementierung der Integration von Hubspot CRM mit Alphaplan, dem ERP-System eines Maschinenbauunternehmens, zur Verbesserung der CRM-Datenerfassungs- und -Eingabeprozesse.
- Integration von Confluent Kafka als Messaging Broker zwischen Hubspot und dem Zielsystem.
- Entwicklung einer Python-Kafka-Procuer Anwendung in Azure Cloud (Azure Functions), die API-Aufrufe durchführt und Einträge an Kafka sendet.
- Entwicklung einer Python-Kafka-Consumer Anwendung On Premises, die die Kafka Topic abhört und Einträge in die Datenbank des Zielsystems schreibt.
- Optimierung der CRM-Datenerfassung, die einen automatischen Datentransfer zum ERP-System vor Ort ermöglicht.
- Deutliche Verbesserung der Benutzerfreundlichkeit und der betrieblichen Effizienz, da die Benutzer des Vertriebsteams die CRM-Daten nicht mehr durch direkten Zugriff auf das ERP-System vor Ort pflegen müssen.

Eingesetzte Qualifikationen

Apache Kafka, CRM (Customer Relationship Management), Microsoft Azure, Python, SQL

Data Engineer
Kundenname anonymisiert, Frankfurt
4/2023 – 4/2023 (1 Monat)
Finanzdienstleister
Tätigkeitszeitraum

4/2023 – 4/2023

Tätigkeitsbeschreibung

Entwicklung einer event gesteuerten ETL-Pipeline in der AWS-Cloud unter Verwendung von AWS-Diensten (Glue, Step Functions, Lambda und SQS) zum Abfangen von S3-Events und Auslösen der Verarbeitung und Validierung von XML-Dateien.

Eingesetzte Qualifikationen

XML, Amazon Web Services (AWS)

Data Engineer
Kundenname anonymisiert, Düsseldorf
3/2022 – 3/2023 (1 Jahr, 1 Monat)
Handel
Tätigkeitszeitraum

3/2022 – 3/2023

Tätigkeitsbeschreibung

- Entwicklung und Wartung von Anwendungen in Pyspark mit Schwerpunkt auf besonders großen Daten.
- Einrichtung von Monitoring und Alerting  Funktionalitäten für Python- und Pyspark-Anwendungen.
- Migration der Verarbeitungslogik von Dremio zu Databricks.
- Verantwortlich für die Wartung von 5 Anwendungen in der Azure Cloud.

Eingesetzte Qualifikationen

Databricks, DevOps, Machine Learning, Microsoft Azure, Python, SQL

Data Engineer
Kundenname anonymisiert, Düsseldorf
4/2021 – 2/2022 (11 Monate)
Handel
Tätigkeitszeitraum

4/2021 – 2/2022

Tätigkeitsbeschreibung

- Entwicklung und Pflege von ETL-Pipelines unter Verwendung von Pyspark, Data Factory und Azure DevOps.
- Migration von Daten aus Data Lake Gen1 nach Data Lake Gen2 mittels Data Factory
- Implementierung von Änderungen in Python- und Pyspark-Anwendungen auf die API von Data Lake Gen2.
- Verantwortlich für Migrationsaktivitäten für 10 Anwendungen in der Azure Cloud.

Eingesetzte Qualifikationen

Databricks, Git, Python, Microsoft Azure

Ausbildung

M. Sc.
Elektrotechnik
Hochschule Mittweida
2016
Mittweida

Persönliche Daten

Sprache
  • Arabisch (Muttersprache)
  • Französisch (Muttersprache)
  • Deutsch (Fließend)
  • Englisch (Fließend)
Reisebereitschaft
auf Anfrage
Arbeitserlaubnis
  • Europäische Union
Home-Office
bevorzugt
Profilaufrufe
32
Alter
34
Berufserfahrung
4 Jahre (seit 04/2021)

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden