Freiberuflicher IT-Berater
- Verfügbarkeit einsehen
- 0 Referenzen
- 115‐130€/Stunde
- 60318 Frankfurt am Main
- auf Anfrage
- de | en | ar
- 01.01.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
1/2023 – offen
Tätigkeitsbeschreibung
Aufbau eines Datawarehouse inklusive diverser Frontend-Tools für verschiedene Reporting und Analyse Use Cases. Die Rolle des Senior Data Engineer umfasst dabei:
- Entwicklung verschiedener ETL Strecken als Apache Airflow DAGs, inklusive Datentransformationen basierend auf Python Skripte sowie Procedures und Calculation Views in SAP HANA
- Anbindung verschiedener Open Source Datenquellen
- Entwicklung mehrerer Datenmodelle je Datenquelltyp in der SAP HANA über mehrere Schemata hinweg
- Regelmäßige Deployments von DEV über die TEST nach PROD, in Absprache mit sämtlichen Datenkonsumenten
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL
Methoden: Scrum, CI/CD, Solution Design, Release Management
Programmiersprachen: SQL, Python
Tools: Apache Airflow, SAP Web IDE, SAP HANA XSA Cockpit, Git, VSCode, DBeaver, JIRA, Microsoft Office
Frameworks: Pandas
Modelle: Entity–relationship
Datenbanken: SAP HANA, Minio (S3 Storage)
Continuous Delivery, Continuous Integration, SAP HANA, SAP Web IDE, Git, Python, Data Warehousing, SQL
10/2021 – 12/2022
Tätigkeitsbeschreibung
Für einen führenden globalen Versicherer wurde eine neue globale Cloud-Datenplattform inklusive ETL-Strecken auf der grünen Wiese entwickelt. Ziel dieser globalen Datenplattform ist es, Policen- und Schadensdaten von Geschäftskunden aus verschiedenen Landeseinheiten zu importieren und zu einer harmonisierten Datenbasis zusammenzuführen. Zentrale Funktionen des Systems sind die Ableitung eines monatlichen Deltas, die Überprüfung der Datenqualität inklusive Entfernen fehlerhafter Datensätze, dem Mapping lokaler Werte in globale Werte und die Historisierung. Basierend darauf, wurden verschiedene Geschäftsanwendungsfälle durch weitere ETL-Strecken, Data Marts und Power BI Dashboards entwickelt. Die zentrale Rolle des Stream Leads für das gesamte Entwicklungsteam und des Proxy-Product Owners umfasste dabei:
- Fachliche Leitung sowie Koordination des zwölfköpfigen Entwicklerteams bestehend aus Architekten, Data Engineers, Data Scientists, DevOps Engineers und Test Engineers
- Operative Unterstützung des Teams durch das Design, die Entwicklung, der Dokumentation und dem Unit-Testing mehrerer Module sowie bei der Analyse und dem Beheben von Bugs
- Review der gesamten End-to-End-Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden
- Entwicklung und Einsatz eines Generators zur dynamischen Erstellung von ADF Data Flows und Pipelines basierend auf Python und der pandas Library
- Übergabe des Systems an den 2nd und 3rd Level Support durch regelmäßige Wissenstransfers und Shadowing-Session über mehrere Monate hinweg
- Unterstützung des Testteams bei der Erstellung von geeigneten Test-Cases
- Support des DevOps Teams bei der Entwicklung der CI/CD-Pipeline basierend auf GitHub Enterprise und GitHub Actions
- Bestellung von Cloud-Infrastruktur bei der unternehmensinternen Cloud-Infrastruktur Einheit für die verschiedenen Umgebungen (DEV, TEST, INT, UAT, PROD)
- Abstimmungen mit den unternehmensinternen Datenarchitekten bezüglich des Datenmodells zum einheitlichen Import der Daten aus den verschiedenen Landeseinheiten
- Entwerfen der Lösungsarchitektur in Zusammenarbeit mit dem Architektenteam und weiteren Stakeholdern der IT
- Regelmäßige Präsentation und Moderation der Zwischenergebnisse gegenüber einem breitem Kundenpublikum, inklusive dem höheren Management in Form von Jour Fixes oder Sprint Reviews
- Erstellung und Priorisierung von User Storys im JIRA Backlog
- Moderation von Sprint Events wie Dailys, Sprint Reviews, Sprint Plannings und Backlog Refinement Meetings
- Design eines Rollenkonzepts inklusive Mandantentrennung für den Zugang zur PostgreSQL Datenbank und den Power BI Reports für verschiedene User-Gruppen basierend auf Azure Active Directory Sicherheitsgruppen
- Aufbau einer sicheren Verbindung zwischen dem Power BI Service und dem PostgreSQL Server via Gateway-Verbindungen und parametrisierten Datenbankverbindungen (relevant um Reports ohne großen Aufwand vom DEV- zur INT- und letztendlich zum PROD- Workspace in Power BI Service zu deployen)
- Staffing des Alexander Thamm GmbH Entwicklungsteams (Aufzeigen von Bedarfen und Suche nach geeigneten Kandidatinnen und Kandidaten)
- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, CI/CD, Solution Design, Release Management, Requirements Engineering, Data Historization, Anonymization and Pseudonymization of Data, Reference Data Management
Cloud: Microsoft Azure
Programmiersprachen: SQL, Python
Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Microsoft Office
Frameworks: Spark, Pandas
Modelle: Data vault, Star schema
Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2
Apache Spark, Big Data, Business Intelligence (BI), Data Vault, Data Warehousing, Datenanalyse, Datenbankentwicklung, Datenmodelierung, Datenschutz, Engineering data management (EDM), ETL, Jira, Continuous Integration, Microsoft Azure, Microsoft Office 365, Power Bi, Pandas, Postgresql, Python, Release-Management, Requirement Analyse, Scrum, Solution Architektur, SQL, Storage
7/2021 – 4/2022
Tätigkeitsbeschreibung
Organisation und Vorbereitung von Data Science Schulungen für Kunden der Alexander Thamm GmbH. Ziel dieser Schulungen war, die eigenen Fachbereiche (Underwriter) mit den Thema Data Science vertraut zu machen, um die Zusammenarbeit mit Data Scientists zu optimieren und offen für neue Use Cases zu sein. Die Rolle des Projektmanagers umfasste dabei:
- Vorbereitung der Lehrmaterialen gemeinsam mit den Trainern
- Suche nach geeigneten Trainern im eigenen Unternehmen
- Koordination der Schulungen in Absprache mit dem Kunden
- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Machine Learning, Business Intelligence
Tools: JIRA, Confluence, Microsoft Office
Frameworks: Pandas, scikit-learn
Business Intelligence (BI), Jira, Maschinelles Lernen, Microsoft Office 365
7/2021 – 9/2021
Tätigkeitsbeschreibung
Für einen führenden globalen Versicherer wurde in kurzer Zeit ein Proof of Concept (POC) entwickelt für eine neue Datenplattform auf Basis von Azure Cloud Services. Ziel war es, zu beweisen, dass mit Hilfe von Cloud Ressourcen die Datenhaltung als auch alle notwendigen ETL-Strecken schnell und skalierbar entwickelt werden können. Auch das Konsumieren der Daten im Rahmen von Power BI Dashboards war Teil des POCs. Die Rolle des Projektmanagers umfasste dabei:
• Leitung des Entwicklerteams bestehend aus einem Architekten, zwei Data Engineers und einem Terraform-Entwickler
• Review der Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden
• Unterstützung des Development Teams bei der Entwicklung von Data Quality Regeln in ADF Data Flows
• Entwicklung eines Power BI Dashboards zur Demonstration von Reporting-Funktionen, unter anderem der Möglichkeit Daten anhand der Row-Level-Security Daten für verschiedene Mandanten zu trennen
• Regelmäßige Vorstellung der Zwischenstände gegenüber dem höheren Management des Kunden
• Durchführung und Vorbereitung der finalen Produktpräsentation vor dem Top Management
• Verknüpfung der POC-Plattform mit Azure Purview zur Demonstration des Data Governance Tools
• Intensive Unterstützung des eignen Vertriebs für Folgebeauftragungen und der Weiterentwicklung der Lösung
• Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, CI/CD, Solution Design
Cloud: Microsoft Azure
Programmiersprachen: SQL, Python
Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Terraform, Microsoft Office
Frameworks: Spark, Pandas
Modelle: Data vault, Star schema
Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2
Business Intelligence (BI), Data Vault, Data Warehousing, Engineering data management (EDM), ETL, Jira, Continuous Integration, Microsoft Azure, Microsoft Office 365, Postgresql, Python, Scrum, Solution Architektur, SQL
4/2020 – 6/2021
Tätigkeitsbeschreibung
Kernaufgabe der Anforderungsanalyse war die Erstellung von Lastenheften, User Storys und BPMN-Modellen. Während des Projekts wechselte man von einer agilen Entwicklung (Scrum) zum Waterfall-Modell, weshalb sowohl agile als auch Waterfall-Methoden zum Einsatz kamen. Die Rolle des Anforderungsanalysten umfasste dabei:
- Analyse und Ausarbeitung der fachlichen Anforderungen in Zusammenarbeit mit dem Fachbereich
- Dokumentation der Anforderungen in Lastenhefte auf Confluence und Aufteilung dieser in Releases
- Dokumentation der Anforderungen in User Storys in JIRA und Zuweisung der Storys in Epics
- Absprachen mit dem Fachbereich, der Architektur und der Spezifikation zur Klärung offener Punkte während der Anforderungsanalyse
- Übergabe der fachlichen Anforderungen an die Spezifikation
- Ansprechpartner bei fachlichen Fragen für die Architektur, Spezifikation, Entwicklung und Test
- Review der Spezifikation (Pflichtenheft) in Confluence zur Freigabe für den Beginn der Entwicklung
Fokusthemen: Requirements Engineering
Methoden: Scrum, Waterfall, Release Management, BPMN
Programmiersprachen: SQL
Tools: JIRA, Confluence, Microsoft Office
Modelle: Entity-relationship
Datenbanken: Oracle
Business Process Model and Notation, Jira, Microsoft Office 365, Oracle Database, Release-Management, Requirement Analyse, Scrum, SQL
3/2020 – 5/2020
Tätigkeitsbeschreibung
Für die Practice Business & Technology Solutions der Capgemini Deutschland GmbH wurde ein Framework für die Implementierung von Robotic Process Automation (RPA) Use Cases entwickelt, basierend auf Insights welche durch Process Mining gewonnen werden. Dies beinhaltete die folgenden Aufgaben:
- Allgemeine Dokumentation der Konzepte von Process Mining und der entsprechenden Software von Celonis
- Darstellung der verschiedenen Deployment-Szenarien für die Celonis Software
- Entwicklung einer Roadmap, beginnend mit einem Proof of Value (POV) für einen ausgewählten Retail-Prozess (z.B. Order to Cash (O2C) oder Purchase-to-Pay (P2P)) bis hin zur Operationalisierung und Skalierung des Frameworks auf weitere Geschäftsprozesse
Fokusthemen: Process Mining
Cloud: Celonis Intelligent Business Cloud
Programmiersprachen: SQL
Tools: Microsoft Office, Celonis Process Mining
Modelle: Entity-relationship
Datenbanken: Celonis Data Store
Data Mining, Microsoft Office 365, Prozessoptimierung, SQL
10/2018 – 3/2020
Tätigkeitsbeschreibung
Für einen großen deutschen Telekommunikationsanbieter wurde das Reporting über den Absatz mobiler Endgeräte um mehrere KPIs bezüglich verschiedener Hersteller-Werbekostenzuschüsse erweitert. Hierfür wurde das Data Warehouse (Backend) um weitere Schnittstellen, Tabellen, Tabellenattribute sowie Berechnungen und Anreicherungen erweitert, sodass der entsprechende Cognos Cube (Frontend) mit den entsprechenden Kennzahlen erweitert werden konnte. Die Rolle als systemübergreifender Solution Designer innerhalb eines Scrum-Teams umfasste dabei:
- Design verschiedener Lösungsarchitekturen im Model Driven Design Ansatz unter Nutzung des Tools MID Innovator
- Spezifikation neuer User Storys in JIRA anhand fachlicher Anforderungen in Zusammenarbeit mit dem Product Owner sowie die Zuweisung der JIRA Epics zu einem Release
- Analyse neuer Datenquellen und Spezifikation neuer Schnittstellen (Datenattribute, Frequenz, Delta-Ermittlung, Fehlerverhalten, Medium)
- Design neuer ETL-Strecken für neue Datenquellen inklusive der Anpassung von Business-Logiken zur Darstellung neuere Kennzahlen im Frontend
- Durchführung von Code-Reviews, um sicherzustellen, dass die fachliche Anforderungen korrekt realisiert wurden
- Unterstützung des Farshore Entwicklungsteams und des Nearshore Testing Teams bei fachlichen Fragen
- Analyse und Verbesserung der Datenqualität durch Optimierung der Schnittstellen oder Anpassung der eigenen Datentransformationen
- Optimierung der Datenbank-Laufzeiten für die pünktliche Bereitstellung der Reports
- Agile Transformation des Projekts vom Waterfall-Modell zu Scrum
- Begleitung bei der Integration des Scrum Teams in ein SAFe Programm
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, SAFe, Release Management, Requirements Engineering, Waterfall, Solution Design, Model Driven Design, BPMN, OLAP/ Data Cubes, Data Historization
Programmiersprachen: SQL
Tools: Git, MID Innovator, SQL Developer, JIRA, Microsoft Office, Cognos BI, Automic
Modelle: Star schema
Datenbanken: Oracle
Business Intelligence (BI), Business Process Model and Notation, Cognos (IBM), Data Warehousing, Datenmodelierung, Engineering data management (EDM), ETL, Git, Jira, Microsoft Office 365, Modellgetriebene Entwicklung, Online Analytical Processing, Oracle Database, Release-Management, Requirement Analyse, Scrum, Solution Architektur, SQL, UC4
3/2018 – 3/2020
Tätigkeitsbeschreibung
Für Studierende der TU Darmstadt wurden jährliche Scrum Workshops organisiert und vor Ort (2018 und 2019) als auch digital (2020) durchgeführt, um diese bereits vor dem Berufseinstieg mit der agilen Methodik vertraut zu machen. Die Rolle des Trainers umfasste dabei:
- Entwicklung der Präsentation und der Zusammenfassung von Scrum
- Vorbereitung der Simulation „Scrum Lego City“ (2018 und 2019) bzw. der digitalen Alternative mit Minecraft anstelle von Lego (2020)
- Präsentation der Methode im Rahmen einer Vorlesung an der TU Darmstadt (2018 und 2019) bzw. digital (2020)
- Durchführung der Simulation vor Ort (2018 und 2019) und digital (2020)
Fokusthemen: Scrum
Methoden: Simulation “Scrum Lego City”, Scrum Simulation mit Minecraft
Scrum
3/2018 – 12/2018
Tätigkeitsbeschreibung
Erstellung eines Frameworks zur automatischen Anonymisierung personenbezogener Daten innerhalb des Data Warehouse eines großen deutschen Telekommunikationsanbieters samt Nachweis. Sowohl historische Daten(einmalig) als auch aktuelle Daten (täglich) wurden durch das Framework anonymisiert, ohne dabei die Aussagekraft bestehender Reports zu beeinträchtigen. Eine Besonderheit stellte hier die Pseudonymisierung der MSISDN (Mobilfunknummer) dar, da dieses Attribut in vielen Tabellen als Schlüsselattribut fungiert und eine MSISDN nach einer gewissen Frist neu vergeben werden kann. Die Rolle des Solution Designers innerhalb eines Scrum-Teams umfasste dabei:
- Auswahl relevanter Tabellen und Attribute gemäß DSGVO (EU GDPR) in Absprache mit den Datenschutzbeauftragten
- Analyse und Gruppierung betroffener Tabellen in Cluster
- Konzeption geeigneter Löschkonzepte (Pseudonymisierung sowie verschiedene Anonymisierungsformen) je Attributart und je Tabelle
- Design von Tabellen für das Speichern von Löschnachweisen
- Modellierung und Dokumentation des Frameworks
Fokusthemen: Business Intelligence, Data Warehouse
Methoden: Anonymization and Pseudonymization of Data, Model Driven Design, BPMN, Scrum, Requirements Engineering, Solution Design, Release Management
Programmiersprachen: SQL
Tools: MID Innovator, SQL Developer, JIRA, Git, Automic, Microsoft Office
Modelle: Star schema
Datenbanken: Oracle
Business Intelligence (BI), Business Process Model and Notation, Data Warehousing, Datenschutz, Git, Jira, Microsoft Office 365, Modellgetriebene Entwicklung, Oracle Database, Release-Management, Requirement Analyse, Scrum, Solution Architektur, SQL, UC4
10/2017 – 3/2018
Tätigkeitsbeschreibung
Für einen großen deutschen Telekommunikationsanbieter mussten die Cognos Power Play Cubes zu Dynamic Cubes migriert werden, um die Betreibbarkeit mehrerer Reports weiterhin zu gewährleisten. Hierfür mussten mehrere Tabellen im Data Warehouse (Backend) angepasst werden, als auch neue erstellt werden, um performante Live-Abfragen durch die neuen Dynamic Cubes zu ermöglichen. Die Aufgaben als Solution Designer umfassten:
- Analyse alter Power Play Cubes zur Definition aller relevanten Fakten und Dimensionen
- Identifizierung der relevanten Tabellen je Cube im Data Warehouse (Backend)
- Modellierung neuer Sternschemata zur optimierten Live-Abfrage von Daten über Dynamic Cubes
- Dokumentation der neuen Modelle im Rahmen des Model Driven Design im Tool MID Innovator
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse
Methoden: Waterfall, Release Management, Solution Design, OLAP/ Data Cubes, Model Driven Design, BPMN
Programmiersprachen: SQL
Tools: Cognos BI, MID Innovator, SQL Developer, Git, JIRA, Microsoft Office
Modelle: Star schema
Datenbanken: Oracle
Business Intelligence (BI), Business Process Model and Notation, Cognos (IBM), Data Warehousing, Engineering data management (EDM), Git, Jira, Microsoft Office 365, Modellgetriebene Entwicklung, Online Analytical Processing, Oracle Database, Release-Management, Solution Architektur, SQL
Zertifikate
Ausbildung
Wiesbaden
Bangkok, Thailand
Mainz
Über mich
Weitere Kenntnisse
Deutsch (Muttersprache)
Englisch (Verhandlungssicher)
Arabisch (Grundlagen)
Branchen
Telekommunikation (2.5 Jahre)
Versicherung (1.5 Jahre)
Öffentlicher Sektor (1.5 Jahre)
Medien (6 Jahre)
Fokusthemen
Data Engineering (4 Jahre)
Business Intelligence (4 Jahre)
Data Warehouse (4 Jahre)
ETL (4 Jahre)
Data Quality (4 Jahre)
Machine Learning (1 Jahr)
Process Mining (1 Jahr)
Methoden
Scrum (5.5 Jahre)
SAFe (0.5 Jahre)
Waterfall (2 Jahre)
Release Management (5.5 Jahre)
CI/CD (2 Jahre)
Requirements Engineering (5.5 Jahre)
Solution Design (4 Jahre)
OLAP/ Data Cubes (2.5 Jahre)
Data Historization (4 Jahre)
Anonymization and Pseudonymization of Data (2.5 Jahre)
Reference Data Mgmt. (1.5 Jahre)
Model Driven Design (2 Jahre)
BPMN (2 Jahre)
Cloud
Microsoft Azure (1.5 Jahre)
Programming
SQL (5.5 Jahre)
Python (2 Jahre)
Tools
Azure Data Factory (1.5 Jahre)
ADF Data Flows (1.5 Jahre)
Azure KeyVault (1.5 Jahre)
Azure DevOps (0.5 Jahre)
Power BI Service (1 Jahr)
Power BI Client (0.5 Jahre)
Cognos BI (2.5 Jahre)
Automic (2.5 Jahre)
Dataiku Data Science Studio (0.5 Jahre)
Celonis Process Mining (1 Jahr)
GitHub Enterprise (2 Jahre)
Git (4 Jahre)
MID Innovator (2.5 Jahre)
VSCode (2 Jahre)
DBeaver (2 Jahre)
SQL Developer (2.5 Jahre)
Microsoft Storage Explorer (1 Jahr)
Azure CLI (0.5 Jahre)
JIRA (5.5 Jahre)
Confluence (3 Jahre)
Azure Purview (1 month)
Microsoft Office (12 Jahre)
Frameworks
Spark (0.5 Jahre)
Pandas (1 Jahr)
scikit-learn (0.5 Jahre)
Modelle
Data Vault (1.5 Jahre)
Sternschema (4 Jahre)
Entity–Relationship (1.5 Jahre)
Datenbanken
Oracle (4 Jahre)
PostgreSQL (1.5 Jahre)
Azure Data Lake Storage Gen2 (1.5 Jahre)
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Arabisch (Grundkenntnisse)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden