
Data Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- 90€/Stunde
- 10115 Berlin
- auf Anfrage
- ar | fr | de | en
- 18.02.2025
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
9/2023 – 1/2025
Tätigkeitsbeschreibung
- Entwicklung einer Engine in Python, die Datenquellen liest und Schlüsselinformationen wie Zeilenzahl, 10 häufigste Werte pro Spalte, Spaltentypen und statistische Berechnungen mit Pandas ableitet.
- Entwicklung einer Streamlit UI-Anwendung, die einen konsolidierten Überblick über die Metadaten bietet.
- Integration von Confluent Kafka als Messaging Broker zwischen der Engine und der Streamlit UI App.
- Automatisierung des manuellen Prozesses (ursprünglich in Excel) zur Pflege und Abfrage von Metadaten über mehrere Systeme hinweg, einschließlich Postgres, DB2, Kafka-Themen und Excel-Tabellen.
- Beschleunigung der Migrationsaktivitäten durch die Bereitstellung konsolidierter Metadaten und Schlüsselinformationen über Tabelleninhalte und Datentypen über alle Datenquellen hinweg.
- Containerisierung beider Anwendungen für den Einsatz von Kubernetes in der Kundenumgebung.
Apache Kafka, Data Engineer, Docker, Pandas, Python
5/2023 – 8/2023
Tätigkeitsbeschreibung
- Implementierung der Integration von Hubspot CRM mit Alphaplan, dem ERP-System eines Maschinenbauunternehmens, zur Verbesserung der CRM-Datenerfassungs- und -Eingabeprozesse.
- Integration von Confluent Kafka als Messaging Broker zwischen Hubspot und dem Zielsystem.
- Entwicklung einer Python-Kafka-Procuer Anwendung in Azure Cloud (Azure Functions), die API-Aufrufe durchführt und Einträge an Kafka sendet.
- Entwicklung einer Python-Kafka-Consumer Anwendung On Premises, die die Kafka Topic abhört und Einträge in die Datenbank des Zielsystems schreibt.
- Optimierung der CRM-Datenerfassung, die einen automatischen Datentransfer zum ERP-System vor Ort ermöglicht.
- Deutliche Verbesserung der Benutzerfreundlichkeit und der betrieblichen Effizienz, da die Benutzer des Vertriebsteams die CRM-Daten nicht mehr durch direkten Zugriff auf das ERP-System vor Ort pflegen müssen.
Apache Kafka, CRM (Customer Relationship Management), Microsoft Azure, Python, SQL
4/2023 – 4/2023
TätigkeitsbeschreibungEntwicklung einer event gesteuerten ETL-Pipeline in der AWS-Cloud unter Verwendung von AWS-Diensten (Glue, Step Functions, Lambda und SQS) zum Abfangen von S3-Events und Auslösen der Verarbeitung und Validierung von XML-Dateien.
Eingesetzte QualifikationenXML, Amazon Web Services (AWS)
3/2022 – 3/2023
Tätigkeitsbeschreibung
- Entwicklung und Wartung von Anwendungen in Pyspark mit Schwerpunkt auf besonders großen Daten.
- Einrichtung von Monitoring und Alerting Funktionalitäten für Python- und Pyspark-Anwendungen.
- Migration der Verarbeitungslogik von Dremio zu Databricks.
- Verantwortlich für die Wartung von 5 Anwendungen in der Azure Cloud.
Databricks, DevOps, Machine Learning, Microsoft Azure, Python, SQL
4/2021 – 2/2022
Tätigkeitsbeschreibung
- Entwicklung und Pflege von ETL-Pipelines unter Verwendung von Pyspark, Data Factory und Azure DevOps.
- Migration von Daten aus Data Lake Gen1 nach Data Lake Gen2 mittels Data Factory
- Implementierung von Änderungen in Python- und Pyspark-Anwendungen auf die API von Data Lake Gen2.
- Verantwortlich für Migrationsaktivitäten für 10 Anwendungen in der Azure Cloud.
Databricks, Git, Python, Microsoft Azure
Ausbildung
Hochschule Mittweida
Mittweida
Persönliche Daten
- Arabisch (Muttersprache)
- Französisch (Muttersprache)
- Deutsch (Fließend)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden